JP2019091307A - Computer program, detecting device, imaging device, server, image data, detector, detecting method, and providing method - Google Patents

Computer program, detecting device, imaging device, server, image data, detector, detecting method, and providing method Download PDF

Info

Publication number
JP2019091307A
JP2019091307A JP2017220327A JP2017220327A JP2019091307A JP 2019091307 A JP2019091307 A JP 2019091307A JP 2017220327 A JP2017220327 A JP 2017220327A JP 2017220327 A JP2017220327 A JP 2017220327A JP 2019091307 A JP2019091307 A JP 2019091307A
Authority
JP
Japan
Prior art keywords
image
learning
image data
cells
data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017220327A
Other languages
Japanese (ja)
Other versions
JP7135303B2 (en
Inventor
勇司 都築
Yuji Tsuzuki
勇司 都築
晶 佐波
Akira Sanami
晶 佐波
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Dai Nippon Printing Co Ltd
Original Assignee
Dai Nippon Printing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Dai Nippon Printing Co Ltd filed Critical Dai Nippon Printing Co Ltd
Priority to JP2017220327A priority Critical patent/JP7135303B2/en
Publication of JP2019091307A publication Critical patent/JP2019091307A/en
Application granted granted Critical
Publication of JP7135303B2 publication Critical patent/JP7135303B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Investigating Or Analysing Biological Materials (AREA)
  • Apparatus Associated With Microorganisms And Enzymes (AREA)
  • Image Analysis (AREA)

Abstract

To provide a computer program, a detecting device, an imaging device, a server, image data, a detector, a detecting method, and a providing method, which can recognize fine specimens such as every single one of cells and bacteria, by using a phase-contrast microscope image or a fluorescent dyeing image of cells.SOLUTION: A computer program causes a computer to execute the steps of: processing for obtaining first image data relating to a first image which includes a specimen for learning and that is obtained by a first method; processing for obtaining second image data relating to a second image which includes an area of interest in the specimen for learning, is obtained by a second method different from the first method, and is able to recognize the area of interest within the specimen for learning; processing for generating learning data on the basis of the first image data and the second image data; and processing for prompting a detector to learn on the basis of the generated learning data in such a manner that the detector is able to detect the specimen on the basis of the first image data relating to the first image which includes the specimen and that is obtained by the first method.SELECTED DRAWING: Figure 1

Description

本開示は、コンピュータプログラム、検出装置、撮像装置、サーバ、画像データ、検出器、検出方法及び提供方法に関する。   The present disclosure relates to a computer program, a detection device, an imaging device, a server, image data, a detector, a detection method, and a provision method.

再生医療分野の産業化、研究の効率化のために細胞、菌等の微小検体の観察を自動化するための画像解析技術が強く望まれている。画像解析技術の中で、細胞を検出する技術は、最も基礎となるものであるが、顕微鏡画像の性質が一般的なカメラ画像と異なること、あるいは細胞は多数が密集して成長することなどから、様々な技術開発が行われている。   There is a strong demand for an image analysis technology for automating the observation of minute samples such as cells and bacteria in order to industrialize the regenerative medicine field and streamline research. Among the image analysis techniques, the technique of detecting cells is the most basic one, but the nature of the microscope image is different from that of a general camera image, or the cells grow densely and so on. There are various technological developments.

特許文献1には、位相差顕微鏡を用いて取得した細胞の位相差画像に対して二次微分フィルタを適用してエッジを抽出し、抽出したエッジが構成する円の面積が最大のものを浮遊細胞の形状として抽出する技術が開示されている。   In Patent Document 1, an edge is extracted by applying a second-order differential filter to a phase difference image of cells acquired using a phase contrast microscope, and the one having the largest area of the circle formed by the extracted edge is suspended. Techniques for extraction as cell shapes are disclosed.

また、特許文献2には、特定の菌に特異的に反応する化合物を用いて蛍光染色した微生物に励起光を照射し、発色した蛍光を解析することにより、特定の菌数を計量する技術が開示されている。   In addition, Patent Document 2 discloses a technique for measuring the number of specific bacteria by irradiating excitation light to a microorganism that is fluorescently stained using a compound that specifically reacts with a specific bacterium, and analyzing the developed fluorescence. It is disclosed.

特開2008−212017号公報Unexamined-Japanese-Patent No. 2008-212017 特開2001−340072号公報Japanese Patent Application Publication No. 2001-340072

しかし、特許文献1のような位相差画像では、そもそも細胞が無色透明であることが多いため細胞と背景との輝度差が小さく、また、多様な細胞の形状に合わせて適切なフィルタモデルの設計を行うことは実用上非常に困難である。このため、位相差画像では細胞が存在することは認識することができるものの、一つ一つの細胞を認識することが困難である。   However, in the phase difference image as in Patent Document 1, the difference in luminance between the cell and the background is small since the cell is often colorless and transparent in the first place, and an appropriate filter model is designed according to various cell shapes. It is very difficult to do in practice. For this reason, although the presence of cells can be recognized in the phase contrast image, it is difficult to recognize each cell.

また、特許文献2のように、細胞に蛍光染色を施して細部を観察する際、染色によって細胞が変質又は死滅し、細胞の本来の挙動を認識することができない。また、蛍光染色するための作業やコストが発生する。   Further, as in Patent Document 2, when the cells are subjected to fluorescent staining to observe details, the cells are degraded or killed by the staining, and the original behavior of the cells can not be recognized. In addition, operations and costs for fluorescent staining occur.

本開示は、斯かる事情に鑑みてなされたものであり、一つ一つの細胞、菌等の微小検体を認識することができるコンピュータプログラム、検出装置、撮像装置、サーバ、画像データ、検出器、検出方法及び提供方法を明らかにする。   The present disclosure has been made in view of such circumstances, and is a computer program, a detection device, an imaging device, a server, image data, a detector, and the like, which can recognize minute samples such as individual cells and bacteria. Identify methods of detection and delivery.

本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、コンピュータプログラムは、コンピュータに、検体を検出させるためのコンピュータプログラムであって、コンピュータに、第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する処理と、前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する処理と、前記第1画像データ及び第2画像データに基づいて学習データを生成する処理と、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる処理とを実行させる。   The present application includes a plurality of means for solving the above problems, and the computer program is, for example, a computer program for causing a computer to detect a sample, and the computer program is obtained by the first method. A process of acquiring first image data relating to a first image including a learning sample, and a second method different from the first method enabling identification of a region of interest in the learning sample A process of acquiring second image data relating to a second image including a region of interest of the learning sample, a process of generating learning data based on the first image data and the second image data, and the first method The detector is trained based on the generated learning data so that the detector can detect the specimen based on the obtained first image data of the first image including the specimen. To perform the processing and to.

本開示によれば、一つ一つの細胞、菌等の微小検体を認識することができる。   According to the present disclosure, it is possible to recognize minute samples such as cells and bacteria.

本実施の形態の検出装置の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the detection apparatus of this Embodiment. 位相差画像及び核染色画像の一例を示す説明図である。It is an explanatory view showing an example of a phase contrast image and a nuclear staining image. 本実施の形態の検出モデル部の構成の第1例を模式的に示す説明図である。It is explanatory drawing which shows typically the 1st example of a structure of the detection model part of this Embodiment. 本実施の形態の検出モデル部を学習させるための学習データの生成方法の第1例を示す説明図である。It is explanatory drawing which shows the 1st example of the production | generation method of the learning data for making the detection model part of this Embodiment learn. 本実施の形態の学習処理部による学習の第1例を示す説明図である。It is explanatory drawing which shows the 1st example of learning by the learning process part of this Embodiment. 本実施の形態の処理部の学習処理の手順の第1例を示すフローチャートである。It is a flowchart which shows the 1st example of the procedure of the learning process of the process part of this Embodiment. 本実施の形態の入力データ生成部による入力データの生成方法の第1例を示す説明図である。It is explanatory drawing which shows the 1st example of the production | generation method of the input data by the input data production | generation part of this Embodiment. 本実施の形態の検出モデル部による検出処理の第1例を示す説明図である。It is explanatory drawing which shows the 1st example of the detection process by the detection model part of this Embodiment. 本実施の形態の処理部による検出処理の手順の第1例を示すフローチャートである。It is a flowchart which shows the 1st example of the procedure of the detection process by the process part of this Embodiment. 本実施の形態の処理部により生成された推定核染色画像の一例を示す説明図である。It is explanatory drawing which shows an example of the presumed nuclear-staining image produced | generated by the process part of this Embodiment. 位相差画像と推定核染色画像とを合成した合成画像の一例を示す説明図である。It is explanatory drawing which shows an example of the synthetic | combination image which synthesize | combined the phase difference image and the presumed nuclear stain image. 推定核染色画像と合成画像の他の例を示す説明図である。It is explanatory drawing which shows the other example of a presumed nuclear-staining image and a synthesized image. 本実施の形態の検出モデル部の構成の第2例を模式的に示す説明図である。It is explanatory drawing which shows typically the 2nd example of a structure of the detection model part of this Embodiment. 本実施の形態の検出モデル部を学習させるための学習データの生成方法の第2例を示す説明図である。It is explanatory drawing which shows the 2nd example of the production | generation method of the learning data for making the detection model part of this Embodiment learn. 本実施の形態の学習処理部による学習の第2例を示す説明図である。It is explanatory drawing which shows the 2nd example of learning by the learning process part of this Embodiment. 本実施の形態の処理部の学習処理の手順の第2例を示すフローチャートである。It is a flowchart which shows the 2nd example of the procedure of the learning process of the process part of this Embodiment. 本実施の形態の検出モデル部による検出処理の第2例を示す説明図である。It is explanatory drawing which shows the 2nd example of the detection process by the detection model part of this Embodiment. 本実施の形態の処理部による検出処理の手順の第2例を示すフローチャートである。It is a flowchart which shows the 2nd example of the procedure of the detection process by the process part of this Embodiment. 核染色画像を異なるしきい値で二値化して得られる二値化後の核染色画像の例を示す説明図である。It is explanatory drawing which shows the example of the nuclear staining image after binarization obtained by binarizing a nuclear staining image by a different threshold value. 本実施の形態の処理部による二値化処理の前処理の手順の一例を示すフローチャートである。It is a flowchart which shows an example of the procedure of the pre-processing of the binarization process by the process part of this Embodiment. 本実施の形態の処理部による二値化処理の前処理での画像の例を示す説明図である。It is explanatory drawing which shows the example of the image in the pre-processing of the binarization process by the process part of this Embodiment. 本実施の形態の検出装置の構成の他の例を示すブロック図である。It is a block diagram which shows the other example of a structure of the detection apparatus of this Embodiment. 本実施の形態の顕微鏡の構成の一例を示すブロック図である。It is a block diagram which shows an example of a structure of the microscope of this Embodiment. 本実施の形態の検出システムの構成の一例を示す模式図である。It is a schematic diagram which shows an example of a structure of the detection system of this Embodiment. 本実施の形態のマウスの表皮細胞の提供方法の一例を示す模式図である。It is a schematic diagram which shows an example of the provision method of the epidermal cell of the mouse | mouth of this Embodiment. 本実施の形態のマウスの表皮細胞の提供方法の処理手順の一例を示すフローチャートである。It is a flowchart which shows an example of a process sequence of the provision method of the epidermal cell of the mouse | mouth of this Embodiment.

以下、本開示の実施の形態を図面に基づいて説明する。図1は本実施の形態の検出装置50の構成の一例を示すブロック図である。本実施の形態の検出装置は、検体を検出する装置である。検体は、後述の第2方法によりラベル付けすることにより識別可能な対象とするもの全てを含む。検体は、例えば、生体(動物)の様々な部位の細胞(例えば、マウスの表皮細胞など)、菌等の微小な識別対象を含むものである。第2方法は、検体の関心領域を識別可能にする方法である。第2方法により細胞核又は細胞膜を染色すると細胞核を識別可能とすることができ、その結果、細胞を検体として検出することができる。この場合、関心領域は、細胞核である。なお、第2方法には、細胞核を識別可能に強調するために、敢えて細胞質を染色することによって細胞核を際立たせる方法も含まれる。また、第2方法により生細胞の核だけを染色すると生細胞を識別可能にすることができ、その結果、生細胞を検体として検出することができる。この場合、関心領域は、生細胞である。また、検体は細胞又は菌のような生命体の一組織に限られるものではなく、特定の分子又はたんぱく質を含有するような個体粒子の集合体である紛体も対象として含めることができる。検体は、生細胞及び死細胞を区別しない場合、どちらか一方又は両方を区別する場合を含む。ほぼ全ての細胞には、細胞核(単に「核」ともいう)が存在し、細胞核は、真核生物の細胞を構成する細胞小器官の一つであり、核内には遺伝情報が保存されている。細胞の細胞膜で囲まれた部分である原形質のうち、細胞核以外の領域を細胞質という。本実施の形態の検出装置は、多数の細胞が密集した状態において、一つ一つの細胞を認識可能に検出するものであり、個々の細胞の細胞核を識別することにより、一つ一つの細胞の位置、及び細胞の数などを正確に検出することができる。なお、検体には、細菌、個体粒子、ゲル粒子などを含めることができる。以下、本明細書では、検体を細胞として説明する。   Hereinafter, embodiments of the present disclosure will be described based on the drawings. FIG. 1 is a block diagram showing an example of the configuration of a detection apparatus 50 according to the present embodiment. The detection apparatus of the present embodiment is an apparatus for detecting a sample. The specimens include all targets that can be identified by labeling according to the second method described later. The sample includes, for example, cells in various parts of a living body (animal) (for example, epidermal cells of a mouse) and minute identification targets such as bacteria. The second method is a method that makes it possible to identify the region of interest of the sample. By staining cell nuclei or cell membranes by the second method, cell nuclei can be identified, and as a result, cells can be detected as specimens. In this case, the region of interest is a cell nucleus. The second method also includes a method of emphasizing the cell nucleus by daringly staining the cytoplasm in order to distinguishably emphasize the cell nucleus. Further, when only the nuclei of living cells are stained by the second method, living cells can be identified, and as a result, living cells can be detected as a sample. In this case, the region of interest is a living cell. Further, the sample is not limited to a single tissue of a living organism such as a cell or a fungus, and a powder which is an aggregate of individual particles containing specific molecules or proteins can also be included as a target. The sample includes the case where one or both are distinguished when not distinguishing between live cells and dead cells. A cell nucleus (also referred to simply as "nucleus") is present in almost all cells, and the cell nucleus is one of the organelles that constitute eukaryotic cells, and genetic information is stored in the nucleus. There is. Of the protoplasm, which is the part surrounded by the cell membrane of the cell, the region other than the cell nucleus is called cytoplasm. The detection device of the present embodiment is capable of recognizably detecting each cell in a state in which a large number of cells are densely packed, and by identifying cell nuclei of individual cells, each cell can be The position and the number of cells can be accurately detected. The sample may include bacteria, solid particles, gel particles and the like. Hereinafter, in the present specification, a sample is described as a cell.

検出装置50は、処理部51、第1画像データ取得部52、第2画像データ取得部53、メモリ54、出力部55、表示部56などを備える。処理部51は、検出モデル部511、入力データ生成部512、推定画像生成部513、学習処理部514、学習データ生成部515などを備える。また、検出装置50は、画像を表示することができる表示装置60と接続することができる。なお、検出装置50は、例えば、ユーザが使用するパーソナルコンピュータなどの情報処理装置、様々なサービスやデータなどを提供するサーバ、あるいは検体を観察する顕微鏡などに組み込むことができる。   The detection device 50 includes a processing unit 51, a first image data acquisition unit 52, a second image data acquisition unit 53, a memory 54, an output unit 55, a display unit 56, and the like. The processing unit 51 includes a detection model unit 511, an input data generation unit 512, an estimated image generation unit 513, a learning processing unit 514, a learning data generation unit 515, and the like. Also, the detection device 50 can be connected to a display device 60 capable of displaying an image. The detection device 50 can be incorporated into, for example, an information processing device such as a personal computer used by a user, a server providing various services and data, or a microscope for observing a sample.

第1画像データ取得部52は、第1取得部及び取得部としての機能を有し、第1方法によって得られた、細胞(学習処理部514の学習用細胞、及び検出用の細胞の両方を含む)を含む第1画像に係る第1画像データを取得する。第1方法は、画像に対する個別の加工を施さないと細胞の関心領域(例えば、核など)を別個に明確に認識することが難しいような方法である。第1方法によって得られた第1画像とは、例えば、顕微鏡により得られる位相差画像及び明視野画像の少なくとも一方を含む。   The first image data acquisition unit 52 has a function as a first acquisition unit and an acquisition unit, and both the cells for learning (the cells for learning of the learning processing unit 514 and the cells for detection obtained by the first method). To obtain first image data relating to the first image. The first method is a method in which it is difficult to separately and clearly recognize a region of interest (e.g., a nucleus or the like) of a cell without performing individual processing on an image. The first image obtained by the first method includes, for example, at least one of a phase difference image and a bright field image obtained by a microscope.

位相差画像は、位相差顕微鏡によって得られる画像であり、光の回折及び干渉という二つの性質を利用し、明暗のコントラストにより無色透明な細胞を可視した画像である。細胞に光が入射すると光の位相変化が生じ(回折光)、一方、細胞の影響を受けていない光は位相変化が生じない(直接光)ので、両方の光の位相差によって、細胞の形状情報を明暗のコントラストとして得ることができる。   The phase contrast image is an image obtained by phase contrast microscopy, and is an image in which colorless and transparent cells are visible by light and dark contrast using two properties of light diffraction and interference. When light enters the cell, the phase change of light occurs (diffracted light), while the light not affected by the cell does not change phase (direct light), so the phase difference between both lights causes the shape of the cell to be changed. Information can be obtained as light and dark contrast.

明視野画像は、透過電子顕微鏡によって得られる画像であり、多くの細胞を含む試料に対して入射した電子線のうち透過した電子線(透過波)のみによって結像した画像である。位相差画像及び明視野画像では、細胞に染色を行う必要がないので、細胞の分化など生きたままの姿を検出することができる。なお、本明細書では、第1方法によって得られた第1画像を位相差画像として説明する。   The bright field image is an image obtained by a transmission electron microscope, and is an image formed by only a transmitted electron beam (transmission wave) among electron beams incident on a sample containing many cells. In the phase contrast image and the bright field image, since it is not necessary to stain the cells, it is possible to detect a living appearance such as cell differentiation. In the present specification, the first image obtained by the first method will be described as a phase difference image.

第2画像データ取得部53は、第2取得部としての機能を有し、第1方法と異なる第2方法によって得られた、学習用細胞を含む第2画像に係る第2画像データを取得する。第2方法は、第1方法とは異なり、細胞の関心領域(例えば、核など)を別個に明確に認識することができるような方法である。別言すれば、細胞の関心領域は、第1方法によれば、画像に対する個別の加工を施さないと一つ一つを個別に識別することが難しく、一方、第2方法によれば、一つ一つを個別に識別することができるものということができる。なお、本明細書では、第2方法によって得られた第2画像を染色画像として説明する。   The second image data acquisition unit 53 has a function as a second acquisition unit, and acquires second image data related to a second image including a learning cell, which is obtained by a second method different from the first method. . The second method is a method different from the first method, in which a region of interest (e.g., a nucleus or the like) of a cell can be separately and clearly recognized. In other words, according to the first method, it is difficult to identify the individual regions of interest of the cells individually according to the first method, while according to the second method It can be said that one can be identified individually. In the present specification, the second image obtained by the second method is described as a stained image.

核染色画像は、蛍光顕微鏡によって得られる画像である。細胞に対して予め核染色(蛍光染色ともいう)を行い、核染色した細胞に励起光を照射し、核染色された細胞から発生する蛍光のうち、所要の波長の蛍光だけを透過するフィルタを用い、当該蛍光のみを取り出すことによって核染色画像を得ることができる。   Nuclear stained images are images obtained by fluorescence microscopy. Cells are subjected to nuclear staining (also referred to as fluorescent staining) in advance, and the nuclear-stained cells are irradiated with excitation light, and a filter that transmits only fluorescence of a required wavelength among the fluorescence generated from the nuclear-stained cells is A nuclear staining image can be obtained by using only the fluorescence.

メモリ54は、画像メモリであり、第1画像データ取得部52で取得した位相差画像の画像データ(第1画像データ)及び第2画像データ取得部53で取得した核染色画像の画像データ(第2画像データ)を記憶する。   The memory 54 is an image memory, and the image data (first image data) of the phase difference image acquired by the first image data acquisition unit 52 and the image data of the nuclear staining image acquired by the second image data acquisition unit 53 2) Store the image data).

図2は位相差画像及び核染色画像の一例を示す説明図である。図2Aは位相差画像であり、図2Bは核染色画像である。図2に示す位相差画像及び核染色画像は、同一の観察領域を同時刻に撮影したものである。位相差画像及び核染色画像の解像度は、800×600とすることができるが、これに限定されない。位相差画像では、細胞の存在、あるいは細胞の形状の概略を認識することができるが、1個の細胞であるのか、複数の細胞が纏まっているのかが正確に観察することができず、観察領域内の全ての細胞について、個々の細胞を識別可能に観察することが困難である。核染色画像では、細胞核の部分が背景に比べて高い輝度として表れ、細胞核の位置及び数を、位相差画像に比べて正確に観察することができる。なお、個々の細胞核が発する輝度は、均一ではなく細胞核によってばらつきがある。   FIG. 2 is an explanatory view showing an example of a phase difference image and a nuclear staining image. FIG. 2A is a phase contrast image, and FIG. 2B is a nuclear staining image. The phase difference image and the nuclear staining image shown in FIG. 2 are obtained by photographing the same observation area at the same time. The resolution of the phase difference image and the nuclear staining image can be 800 × 600, but is not limited thereto. The phase contrast image can recognize the presence of cells or the outline of cell shape, but it is not possible to accurately observe whether it is a single cell or a plurality of cells are concentrated. It is difficult to distinguishably observe individual cells for all cells in the area. In the nuclear staining image, a portion of the cell nucleus appears as high brightness as compared to the background, and the position and number of the cell nucleus can be accurately observed as compared to the phase contrast image. Note that the luminance emitted from each cell nucleus is not uniform but varies depending on the cell nucleus.

処理部51は、ハードウエア又はソフトウエア、あるいは両方の組み合わせにより構成することができる。   The processing unit 51 can be configured by hardware or software, or a combination of both.

検出モデル部511は、検出器としての機能を有し、例えば、複数のプロセッサ(CPU:Central Processing Unit)、複数のグラフィック処理ユニット(GPU:Graphics Processing Unit)、あるいはCPU及びGPUの組み合わせによって構成することができる。所要のプログラミング言語によって細胞を検出するための検出モデルが作成され、学習用データを用いて、作成した検出モデルによる検出精度が高くなるように検出モデルのパラメータ等の構成をチューニングすることにより、検出モデル部511の学習を行うことができる。   The detection model unit 511 has a function as a detector, and is configured by, for example, a plurality of processors (CPU: Central Processing Unit), a plurality of graphics processing units (GPU: Graphics Processing Unit), or a combination of CPU and GPU be able to. A detection model for detecting cells is created by a required programming language, and data for learning is used to tune the configuration of parameters of the detection model such that detection accuracy by the created detection model is enhanced. Learning of the model unit 511 can be performed.

図3は本実施の形態の検出モデル部511の構成の第1例を模式的に示す説明図である。図3は、検出モデル部511をニューラルネットワークモデルで構成したものであるが、検出モデル部511の構成は、図3の例のような多層のニューラルネットワーク(深層学習)に限定されるものではなく、他の機械学習(例えば、SVM:サポートベクターマシン、Random Forest:ランダムフォレスト)のアルゴリズムを用いることもできる。   FIG. 3 is an explanatory view schematically showing a first example of the configuration of the detection model unit 511 of the present embodiment. FIG. 3 shows the detection model unit 511 configured as a neural network model, but the configuration of the detection model unit 511 is not limited to a multi-layered neural network (depth learning) as in the example of FIG. 3. Other algorithms of machine learning (eg, SVM: support vector machine, Random Forest: random forest) can also be used.

図3に示すように、検出モデル部511は、入力層、出力層及び複数の中間層から構成されている。なお、図3では、便宜上、2つ中間層を図示しているが、中間層の層数は2つに限定されず、3つ以上であってもよい。入力層のノード数はN(x1、x2、…、xN)であり、出力層のノード数は1(y1)である。   As shown in FIG. 3, the detection model unit 511 includes an input layer, an output layer, and a plurality of intermediate layers. Although two intermediate layers are illustrated in FIG. 3 for the sake of convenience, the number of intermediate layers is not limited to two, and may be three or more. The number of nodes in the input layer is N (x1, x2,..., XN), and the number of nodes in the output layer is 1 (y1).

入力層、出力層及び中間層には、1つ又は複数のノード(ニューロン)が存在し、各層のノードは、前後の層に存在するノードと一方向に所望の重みで結合されている。入力層のノードの数Nと同数の成分を有するベクトルが、学習済の検出モデル部511の入力データとして与えられる。   One or more nodes (neurons) are present in the input layer, the output layer, and the intermediate layer, and the nodes of each layer are coupled to nodes present in the previous and subsequent layers in one direction with a desired weight. A vector having the same number of components as the number N of nodes in the input layer is provided as input data of the learned detection model unit 511.

入力層の各ノードに与えられたデータは、最初の中間層に入力として与えられると、重み及び活性化関数を用いて中間層の出力が算出され、算出された値が次の中間層に与えられ、以下同様にして出力層の出力が求められるまで次々と後の層(下層)に伝達される。なお、ノードを結合する重みのすべては、学習処理部514の学習アルゴリズムによって計算される。   The data given to each node of the input layer is given as an input to the first intermediate layer, and the output of the intermediate layer is calculated using the weight and the activation function, and the calculated value is given to the next intermediate layer Thereafter, the output layer is sequentially transmitted to the subsequent layers (lower layer) until the output of the output layer is determined. Note that all the weights connecting the nodes are calculated by the learning algorithm of the learning processing unit 514.

出力層は、入力データ(x1、x2、…xN)に基づいて、一の画素の輝度値を出力する。画素の輝度範囲を0〜255とすると、出力値は、0〜255の任意の値(整数に限定されない)を取り得る。なお、輝度値0は黒(暗)であり、輝度値255は白(明)である。   The output layer outputs the luminance value of one pixel based on the input data (x1, x2,... XN). Assuming that the luminance range of the pixel is 0 to 255, the output value can take any value (not limited to an integer) of 0 to 255. The luminance value 0 is black (dark), and the luminance value 255 is white (bright).

次に、検出モデル部511の学習手順について説明する。   Next, the learning procedure of the detection model unit 511 will be described.

学習データ生成部515は、撮像して得られた、学習用細胞を含む位相差画像の画像データ、及び撮像して得られた、当該学習用細胞の関心領域を含む核染色画像の画像データに基づいて学習データを生成する。   The learning data generation unit 515 uses the image data of the phase difference image including the learning cell obtained by imaging and the image data of the nuclear staining image including the region of interest of the learning cell obtained by imaging. Generate learning data based on it.

図4は本実施の形態の検出モデル部511を学習させるための学習データの生成方法の第1例を示す説明図である。図4の学習データの生成方法は、図3に示す検出モデル部511の第1例に対応するものである。   FIG. 4 is an explanatory view showing a first example of a method of generating learning data for causing the detection model unit 511 of the present embodiment to learn. The method of generating learning data shown in FIG. 4 corresponds to the first example of the detection model unit 511 shown in FIG.

図4Aに示すように、学習データ生成部515は、観察領域を撮像した、学習用細胞の関心領域を含む核染色画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。   As shown in FIG. 4A, the learning data generation unit 515 acquires, from the memory 54, image data of a nuclear stained image (for example, having a resolution of 800 × 600) including the region of interest of the learning cell in which the observation region is imaged.

図4Bに示すように、学習データ生成部515は、核染色画像から所定の画素数で構成される画素ブロック(例えば、g×g、g=28など)を複数特定する。図4Bの例では、便宜上、4つの画素ブロックG1、G2、G3、G4を示す。実際には、1枚の核染色画像から所要数の画素ブロックを特定することができる。所要数は、例えば、1枚の核染色画像の全画素数に等しい数でもよく、画像処理負荷を軽減すべく、全画素数よりも少ない数でもよい。画素ブロックの特定は、核染色画像上の位置をランダムに選ぶことができるが、細胞核を含む画素ブロックだけでなく、細胞核を含まない画素ブロックを特定することができる。細胞核を含まない画素ブロックも特定することにより、細胞核が存在しないのに誤って細胞核が存在する如く誤検出を防止して細胞の検出精度を高めることができる。また、細胞が正細胞であるか死細胞であるかの区別をしなくてもよい。画素ブロックG1、G3は細胞核(発色箇所)を含み、画素ブロックG2、G4は細胞核を含んでいない。また、画素ブロックG1、G2、G3、G4の特徴量(図4Bの例では、画素値の一つである輝度値)を、それぞれ159、82、255、90とする。ここで、画素ブロックの画素の特徴量は、例えば、画素ブロックの中心に存在する画素の画素値の一つである輝度値とすることができるが、これに限定されない。他にも、画素ブロック内の画素値の平均値、画素値の中央値等、画素ブロックを代表する代表値を含めることができる。すなわち、代表値も画素値の一つである。   As shown in FIG. 4B, the learning data generation unit 515 identifies a plurality of pixel blocks (for example, g × g, g = 28, etc.) configured by a predetermined number of pixels from the nuclear staining image. In the example of FIG. 4B, four pixel blocks G1, G2, G3, and G4 are shown for convenience. In practice, a required number of pixel blocks can be identified from one nuclear stain image. The required number may be, for example, a number equal to the total number of pixels of one nuclear stain image, or may be a number smaller than the total number of pixels to reduce the image processing load. Although specification of a pixel block can choose a position on a nuclear stain picture at random, it can specify not only a pixel block containing a cell nucleus but a pixel block not containing a cell nucleus. By specifying a pixel block that does not contain cell nuclei, it is possible to prevent erroneous detection such that cell nuclei are erroneously present even if cell nuclei are not present, and to improve cell detection accuracy. Also, it is not necessary to distinguish whether the cell is a positive cell or a dead cell. The pixel blocks G1 and G3 contain cell nuclei (colored spots), and the pixel blocks G2 and G4 do not contain cell nuclei. Further, feature amounts of the pixel blocks G1, G2, G3 and G4 (in the example of FIG. 4B, luminance values which are one of the pixel values) are set to 159, 82, 255 and 90, respectively. Here, the feature amount of the pixel of the pixel block may be, for example, a luminance value which is one of the pixel values of the pixels present at the center of the pixel block, but is not limited thereto. In addition, a representative value representing the pixel block can be included, such as an average value of pixel values in the pixel block, a median value of the pixel values, and the like. That is, the representative value is also one of the pixel values.

学習データ生成部515は、観察領域を撮像した、学習用細胞を含む位相差画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。なお、位相差画像と核染色画像とは、学習用細胞が含まれる同一の観察領域を同一時刻に撮像したものである。   The learning data generation unit 515 acquires, from the memory 54, image data of a phase difference image (for example, having a resolution of 800 × 600) including the learning cells, in which the observation area is imaged. The phase difference image and the nuclear staining image are obtained by imaging the same observation area including the learning cells at the same time.

学習データ生成部515は、核染色画像上で特定した画素ブロックに対応する位相差画像の画素ブロックに、核染色画像上で特定した画素ブロックの画素の特徴量を関連付けて学習データを生成する。より具体的には、学習データ生成部515は、位相差画像の画素ブロックに、核染色画像上で特定した画素ブロック内の所定画素(図4の例では、中心画素)の画素値の一つである輝度値を関連付けて学習データを生成する。画素値を学習用データ(教師データ)として用いるので、例えば、特徴ベクトルなどを算出して教師データとして用いる場合に比べて、適切な特徴ベクトルの設計が不要であり、特徴ベクトルを算出する場合に比べて、画素値をそのまま用いることができるので、処理が簡単になるとともに精度の高い細胞検出を可能とする。   The learning data generation unit 515 generates learning data by associating the feature amount of the pixel of the pixel block identified on the nuclear stain image with the pixel block of the phase difference image corresponding to the pixel block identified on the nuclear stain image. More specifically, the learning data generation unit 515 uses the pixel block of the phase difference image as one of the pixel values of a predetermined pixel (the center pixel in the example of FIG. 4) in the pixel block specified on the nuclear stain image. To generate learning data in association with the luminance values. Since pixel values are used as learning data (teacher data), for example, there is no need to design a suitable feature vector as compared to the case where a feature vector or the like is calculated and used as teacher data, and a feature vector is calculated. In comparison, since the pixel value can be used as it is, processing is simplified and highly accurate cell detection is enabled.

図4Cに示すように、学習データ生成部515は、核染色画像上の画素ブロックG1、G2、G3、G4に対応する位相差画像の領域X1、X2、X3、X4(切り出し画像)を切り出す。そして、領域X1〜X4に、画素ブロックG1〜G4の輝度値を教師ラベルとして関連付けている。領域X1〜X4は、それぞれg×gの画素で構成されるので、領域X1については、サンプルX1の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x11、x12、…、x1N)が生成され、教師ラベルは159となる。   As shown in FIG. 4C, the learning data generation unit 515 cuts out regions X1, X2, X3, and X4 (cut-out images) of the phase difference image corresponding to the pixel blocks G1, G2, G3, and G4 on the nuclear staining image. The luminance values of the pixel blocks G1 to G4 are associated with the regions X1 to X4 as teacher labels. Regions X1 to X4 are each composed of g × g pixels. Therefore, for region X1, a vector (x11, x12, N) has N (= g × g) components as learning input data of sample X1. ..., x1N) are generated, and the teacher label is 159.

領域X2については、サンプルX2の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x21、x22、…、x2N)が生成され、教師ラベルは82となる。領域X3については、サンプルX3の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x31、x32、…、x3N)が生成され、教師ラベルは255となる。また、領域X4については、サンプルX4の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x41、x42、…、x4N)が生成され、教師ラベルは90となる。   For the region X2, a vector (x21, x22,..., X2N) having N (= g × g) components is generated as learning input data of the sample X2, and the teacher label is 82. For the region X3, a vector (x31, x32,..., X3N) having N (= g × g) components is generated as learning input data of the sample X3, and the teacher label is 255. Also, for the region X4, a vector (x41, x42,..., X4N) having N (= g × g) components is generated as learning input data of the sample X4, and the teacher label is 90.

図5は本実施の形態の学習処理部514による学習の第1例を示す説明図である。学習処理部514は、学習データ生成部515が生成した学習データに基づいて検出モデル部511を学習させる。具体的には、学習処理部514は、サンプルX1の学習用入力データ(x11、x12、…、x1N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである159に近づくように学習を行う。   FIG. 5 is an explanatory view showing a first example of learning by the learning processing unit 514 of the present embodiment. The learning processing unit 514 causes the detection model unit 511 to learn based on the learning data generated by the learning data generation unit 515. Specifically, the learning processing unit 514 inputs learning input data (x11, x12,..., X1N) of the sample X1 to each input node of the input layer, and the output value y1 of the output node of the output layer is The learning is performed to approach the teacher data 159.

また、学習処理部514は、サンプルX2の学習用入力データ(x21、x22、…、x2N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである82に近づくように学習を行う。また、学習処理部514は、サンプルX3の学習用入力データ(x31、x32、…、x3N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである255に近づくように学習を行う。また、学習処理部514は、サンプルX4の学習用入力データ(x41、x42、…、x4N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである90に近づくように学習を行う。   Further, the learning processing unit 514 inputs learning input data (x21, x22,..., X2N) of the sample X2 to each input node of the input layer, and the output value y1 of the output node of the output layer is teacher data. Learn to approach 82. Further, the learning processing unit 514 inputs learning input data (x31, x32,..., X3N) of the sample X3 to each input node of the input layer, and the output value y1 of the output node of the output layer is teacher data. It learns to approach a certain 255. Further, the learning processing unit 514 inputs learning input data (x41, x42,..., X4N) of the sample X4 to each input node of the input layer, and the output value y1 of the output node of the output layer is teacher data. Learn to approach 90.

図6は本実施の形態の処理部51の学習処理の手順の第1例を示すフローチャートである。以下では、便宜上、処理の主体を処理部51として説明する。処理部51は、観察領域を撮像した、学習用細胞を含む位相差画像の画像データを取得し(S11)、同一の観察領域を同時刻に撮像した、当該学習用細胞の関心領域を含む核染色画像の画像データを取得する(S12)。   FIG. 6 is a flowchart showing a first example of the procedure of the learning process of the processing unit 51 according to the present embodiment. Hereinafter, for the sake of convenience, the subject of the process will be described as the processing unit 51. The processing unit 51 acquires the image data of the phase difference image including the cells for learning, which images the observation area (S11), and images the same observation area at the same time, the nucleus including the region of interest of the cells for learning Image data of a stained image is acquired (S12).

処理部51は、核染色画像からランダムに画素ブロックを複数特定し(S13)、特定した画素ブロックの中心画素の輝度値を記録する(S14)。処理部51は、位相差画像から画素ブロックに対応する位置の切り出し画像を抽出する(S15)。   The processing unit 51 specifies a plurality of pixel blocks at random from the nuclear staining image (S13), and records the luminance value of the central pixel of the specified pixel block (S14). The processing unit 51 extracts the cutout image of the position corresponding to the pixel block from the phase difference image (S15).

処理部51は、抽出した切り出し画像の各画素の輝度値を学習用入力データとし、切り出し画像に対応する画素ブロックの中心画素の輝度値を教師ラベルとして学習データを生成する(S16)。処理部51は、生成した学習データに基づいて検出モデル部511を学習させる(S17)。   The processing unit 51 generates learning data with the luminance value of each pixel of the extracted cutout image as learning input data and the luminance value of the central pixel of the pixel block corresponding to the cutout image as a teacher label (S16). The processing unit 51 causes the detection model unit 511 to learn based on the generated learning data (S17).

処理部51は、検出モデル部511の出力値の精度が許容範囲内であるか否かを判定し(S18)、許容範囲内でない場合(S18でNO)、ステップS11以降の処理を続ける。出力値の精度が許容範囲内である場合(S18でYES)、処理部51は、処理を終了する。   The processing unit 51 determines whether the accuracy of the output value of the detection model unit 511 is within the allowable range (S18), and if it is not within the allowable range (NO in S18), the processing from step S11 is continued. If the accuracy of the output value is within the allowable range (YES in S18), the processing unit 51 ends the process.

学習データを生成する場合、位相差画像及び核染色画像は、1枚に限定されず、複数枚の位相差画像及び核染色画像を用いることができる。例えば、細胞の活動に応じた状態を学習させるため、所定の時間経過の都度、位相差画像及び核染色画像を撮像することができる。例えば、15分経過の都度、位相差画像及び核染色画像を1枚撮像し、最終的に10枚程度の位相差画像及び核染色画像を取得すればよい。   In the case of generating learning data, the phase difference image and the nuclear staining image are not limited to one, and a plurality of phase difference images and a nuclear staining image can be used. For example, in order to learn a state according to the activity of a cell, it is possible to capture a phase difference image and a nuclear staining image each time a predetermined time has elapsed. For example, every 15 minutes, one phase difference image and one nuclear staining image may be taken, and finally about 10 phase difference images and a nuclear staining image may be acquired.

次に、学習済の検出モデル部511を用いて、細胞を検出する手順について説明する。   Next, a procedure for detecting a cell using the learned detection model unit 511 will be described.

第1画像データ取得部52は、検出用の細胞(学習用ではない)を含む位相差画像を取得し、取得した位相差画像をメモリ54に記憶する。   The first image data acquisition unit 52 acquires a phase difference image including cells for detection (not for learning), and stores the acquired phase difference image in the memory 54.

入力データ生成部512は、メモリ54から位相差画像を取得し、取得した位相差画像から所定の画素数で構成される画素ブロックを複数特定する。入力データ生成部512は、特定した画素ブロックの各画素の輝度値に基づいて入力データを生成する。   The input data generation unit 512 acquires a phase difference image from the memory 54, and specifies a plurality of pixel blocks configured with a predetermined number of pixels from the acquired phase difference image. The input data generation unit 512 generates input data based on the luminance value of each pixel of the specified pixel block.

図7は本実施の形態の入力データ生成部512による入力データの生成方法の第1例を示す説明図である。位相差画像の解像度をm×n(例えば、m=800、n=600など)とする。入力データ生成部512は、例えば、位相差画像の左上から水平方向に走査し、水平方向の走査が終了したら走査位置を垂直方向にずらすとともに再度左から右に向かって走査を繰り返し、最終的に右下まで走査して、位相差画像の全画素の画素数分の画素ブロック(g×g、g=28)を特定することにより、M個(M=m×n)の切り出し画像A1、A2、…、AMを切り出す。各切り出し画像は、N個(N=g×g)の画素で構成される。これにより、入力データは、それぞれがN個の成分を有するM個のベクトルで構成される。なお、切り出し画像の数は、位相差画像の全画素数に限定されるものではなく、位相差画像のうちの特定の領域を走査したときの画素数でもよく、切り出す画像を走査方向に沿って間引きしてもよい。   FIG. 7 is an explanatory drawing showing a first example of a method of generating input data by the input data generation unit 512 of the present embodiment. The resolution of the phase difference image is m × n (for example, m = 800, n = 600, etc.). For example, the input data generation unit 512 scans in the horizontal direction from the upper left of the phase difference image, shifts the scanning position in the vertical direction when scanning in the horizontal direction is completed, and repeats scanning from left to right again. By scanning to the lower right and specifying pixel blocks (g × g, g = 28) for the number of pixels of all pixels of the phase difference image, M (M = m × n) cutout images A1 and A2 are obtained. Cut out AM. Each cutout image is composed of N (N = g × g) pixels. Thus, the input data is composed of M vectors each having N components. The number of cut-out images is not limited to the total number of pixels of the phase difference image, but may be the number of pixels when a specific region of the phase difference image is scanned, and the image to be cut out is along the scanning direction It may be thinned out.

図8は本実施の形態の検出モデル部511による検出処理の第1例を示す説明図である。入力層のそれぞれ入力ノードには、切り出し画像A1についての入力データ(a11、a12、a13、…a1N)が入力されると、出力層の出力ノードには出力値b1が出力される。また、切り出し画像A2についての入力データ(a21、a22、a23、…a2N)が入力されると、出力層の出力ノードには出力値b2が出力される。以下、同様にして、切り出し画像AMについての入力データ(aM1、aM2、aM3、…aMN)が入力されると、出力層の出力ノードには出力値bMが出力される。   FIG. 8 is an explanatory view showing a first example of detection processing by the detection model unit 511 of the present embodiment. When input data (a11, a12, a13,... A1N) for the cutout image A1 is input to each input node of the input layer, an output value b1 is output to the output node of the output layer. Further, when input data (a21, a22, a23,... A2N) for the cutout image A2 is input, an output value b2 is output to the output node of the output layer. Hereinafter, similarly, when input data (aM1, aM2, aM3,... AMN) for the cutout image AM is input, the output value bM is output to the output node of the output layer.

推定画像生成部513は、検出モデル部511の出力ノードから出力される出力値b1、b2、…、bMに基づいて、核染色画像を撮像することなく、核染色画像の推定画像を生成する。図7に示すように、位相差画像の解像度をm×nとすると、推定画像生成部513は、M(=m×n)個の出力値を、m×nの各画素に対応させることにより、m×nの推定核染色画像を生成する。   The estimated image generation unit 513 generates an estimated image of the nuclear staining image based on the output values b1, b2,..., BM output from the output node of the detection model unit 511 without capturing the nuclear staining image. As illustrated in FIG. 7, assuming that the resolution of the phase difference image is m × n, the estimated image generation unit 513 associates M (= m × n) output values with m × n pixels. , M × n estimated nuclear staining images.

出力部55は、検出モデル部511の出力ノードから出力される出力値b1、b2、…、bMを外部の装置などに出力することができる。   The output unit 55 can output the output values b1, b2,..., BM output from the output node of the detection model unit 511 to an external device or the like.

図9は本実施の形態の処理部51による検出処理の手順の第1例を示すフローチャートである。処理部51は、検出対象の細胞を含む位相差画像の画像データを取得し(S31)、取得した位相差画像を走査して切り出し画像を抽出する(S32)。処理部51は、抽出した切り出し画像の各画素の輝度値に基づいて、入力データを生成する(S33)。   FIG. 9 is a flowchart showing a first example of the procedure of detection processing by the processing unit 51 of the present embodiment. The processing unit 51 acquires image data of a phase difference image including cells to be detected (S31), scans the acquired phase difference image, and extracts a cutout image (S32). The processing unit 51 generates input data based on the luminance value of each pixel of the extracted cutout image (S33).

処理部51は、生成した入力データを検出モデル部511の入力ノードに入力し(S34)、切り出し画像毎に検出モデル部511が出力した出力値を推定核染色画像の各画素の輝度値とし(S35)、推定核染色画像を生成する(S36)。   The processing unit 51 inputs the generated input data to the input node of the detection model unit 511 (S34), and sets the output value output by the detection model unit 511 for each cutout image as the luminance value of each pixel of the estimated nuclear staining image ( S35) An estimated nuclear staining image is generated (S36).

処理部51は、位相差画像と、推定核染色画像とを対比して表示し(S37)、処理を終了する。   The processing unit 51 contrasts and displays the phase difference image and the estimated nuclear staining image (S37), and ends the processing.

図10は本実施の形態の処理部51により生成された推定核染色画像の一例を示す説明図である。図10Aは、検出対象の細胞を含む位相差画像であり、図10Bは、処理部51により生成された核染色画像の推定画像(推定核染色画像)であり、図10Cは、位相差画像に対応する核染色画像であり、位相差画像と同一の観察領域を同時刻に撮像したものである。図10に示すように、本実施の形態によれば、細胞に核染色を行って核染色画像を取得することなく、位相差画像を取得するだけで、核染色画像の推定画像を精度良く得ることができる。   FIG. 10 is an explanatory view showing an example of an estimated nuclear staining image generated by the processing unit 51 of the present embodiment. FIG. 10A is a phase difference image including cells to be detected, FIG. 10B is an estimated image (estimated nuclear stain image) of a nuclear staining image generated by the processing unit 51, and FIG. 10C is a phase contrast image. It is a corresponding nuclear staining image, and the same observation area as the phase difference image is captured at the same time. As shown in FIG. 10, according to the present embodiment, it is possible to obtain an estimated image of a nuclear staining image with high accuracy only by acquiring a phase contrast image without performing nuclear staining on cells and acquiring a nuclear staining image. be able to.

図10に示す推定核染色画像に係る画像データは、細胞(細胞核)が検出された画像データであって、撮像して得られる細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを含む構造を有し、当該推定画像は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づく入力データを、細胞を検出する検出モデル部511に入力して検出モデル部511が出力する出力値に基づいて生成され、検出モデル部511は、撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、当該学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習されている。   Image data related to the estimated nuclear staining image shown in FIG. 10 is image data in which a cell (cell nucleus) is detected, and estimated image data related to an estimated image of a stained image including a region of interest of cells obtained by imaging A detection model for detecting cells, input data based on at least one of a phase-contrast image containing cells and a bright-field image, obtained by imaging, The detection model unit 511 is generated on the basis of an output value output from the detection model unit 511 by inputting to the unit 511, and the detection model unit 511 obtains at least one of a phase difference image including learning cells or a bright field image obtained by imaging. The learning is performed by learning data generated based on the first image data and the second image data related to the stained image including the region of interest of the learning cell obtained by imaging.

図11は位相差画像と推定核染色画像とを合成した合成画像の一例を示す説明図である。表示部56は、推定画像生成部513が生成した推定核染色画像と、取得された位相差画像とを対比させて表示装置60の表示画面に表示させることができる。位相差画像(図11A)と、推定核染色画像(図11B)とを対比させるとは、図示しないが位相差画像と推定核染色画像とを並列させて表示するだけでなく、図11Cに示すように、位相差画像の左上の位置及び右下の位置それぞれが、推定核染色画像の左上の位置及び右下の位置に一致するように、位相差画像と推定核染色画像とを重ねることや、推定核染色画像の情報を基に位相差画像を所定の操作で編集することを含む。これにより、位相差画像上で認識される細胞の位置が、推定核染色画像上で認識される細胞核の位置によって確定するので、核染色画像を取得することなく、一つ一つの細胞の位置、及び細胞の数を正確に認識しつつ、位相差画像を観察することが可能となる。特に、位相差画像だけでは、一つの細胞のように認識される場合に、実際には、例えば、二つの細胞が密着した状態であることを把握して観察できる。   FIG. 11 is an explanatory view showing an example of a combined image obtained by combining the phase difference image and the estimated nuclear staining image. The display unit 56 can display the estimated nuclear stain image generated by the estimated image generation unit 513 and the acquired phase difference image on the display screen of the display device 60 in comparison. Although the phase difference image (FIG. 11A) and the estimated nuclear staining image (FIG. 11B) are not shown in FIG. 11C, the phase difference image and the estimated nuclear staining image are not only displayed side by side but also displayed in FIG. As described above, overlapping the phase difference image with the estimated nuclear stain image such that the upper left position and the lower right position of the phase difference image respectively coincide with the upper left position and the lower right position of the estimated nuclear stain image And editing the phase difference image by a predetermined operation based on the information of the estimated nuclear staining image. Thereby, since the position of the cell recognized on the phase difference image is determined by the position of the cell nucleus recognized on the estimated nuclear staining image, the position of each cell, without acquiring the nuclear staining image, It is possible to observe the phase difference image while accurately recognizing the number of cells and the number of cells. In particular, in the case of being recognized as one cell, it can be grasped and observed that, for example, two cells are in close contact with each other, in the case of being recognized as one cell, in particular.

本実施の形態によれば、核染色画像を実際に取得することなく、細胞核が鮮明に映る推定核染色画像を得ることができるので、画像解析に適した画像を得ることができる。また、核染色撮影のための作業やコストが不要となり、細胞への侵襲がなく、細胞の本来の挙動を観察することが可能となる。   According to the present embodiment, it is possible to obtain an estimated nuclear staining image in which a cell nucleus is clearly seen without actually acquiring a nuclear staining image, so that an image suitable for image analysis can be obtained. In addition, the operation and cost for nuclear staining imaging become unnecessary, there is no invasiveness to the cells, and it becomes possible to observe the original behavior of the cells.

本実施の形態によれば、核染色画像に基づいて教師データ(学習用データ)を自動的に生成するので、例えば、検出したい領域(細胞領域)のマスク画像(教師データ)を手動で作成する必要がなく、教師データの作成者の主観が入り込む余地がなく、ばらつき、あるいは主観によるブレのない学習データを生成することができる。   According to the present embodiment, since teacher data (data for learning) is automatically generated based on a nuclear staining image, for example, a mask image (teacher data) of a region (cell region) to be detected is manually created. There is no need, there is no room for the subjectivity of the creator of the teacher data to enter, and it is possible to generate learning data without variation or deviation due to subjectivity.

本実施の形態によれば、一度学習が完了すれば、細胞の核染色を行わずに核染色画像と同等の画像が得られるため、核染色による様々なリスク(例えば、細胞へのダメージ等)がなくなる。   According to this embodiment, once learning is completed, an image equivalent to a nuclear staining image can be obtained without performing nuclear staining of cells, so various risks due to nuclear staining (for example, damage to cells, etc.) There is no

本実施の形態によれば、核染色画像に基づく学習データによって学習した検出モデル部に、位相差画像の画像データを入力して細胞を検出するので、位相差画像のみを用いる場合に必要となる多様で適切なフィルタモデルの設計が不要となる。   According to the present embodiment, since the image data of the phase difference image is input to the detection model unit learned by the learning data based on the nuclear staining image to detect the cells, it is necessary when only the phase difference image is used There is no need to design various and appropriate filter models.

本実施の形態によれば、光学系モデルに基づいて各画素が細胞か否かを推定する必要がないので、光学系モデルの多くの未知のパラメータを試行錯誤で決定する必要がない。   According to the present embodiment, since it is not necessary to estimate whether each pixel is a cell or not based on the optical system model, it is not necessary to determine many unknown parameters of the optical system model by trial and error.

本実施の形態によれば、核染色画像から複数の画素ブロックを特定する場合、細胞核を含む画素ブロックだけでなく、細胞核を含まない画素ブロックも特定して、学習データを生成するので、細胞核が存在しないのに誤って細胞核が存在する如く誤検出を防止して細胞の検出精度を高めることができる。   According to the present embodiment, when identifying a plurality of pixel blocks from a nuclear staining image, not only pixel blocks including cell nuclei but also pixel blocks not including cell nuclei are identified to generate learning data. The false detection can be prevented and the detection accuracy of the cell can be enhanced as the cell nucleus is erroneously present even though it is not present.

図12は推定核染色画像と合成画像の他の例を示す説明図である。なお、図12では、便宜上、一つの細胞(細胞核)だけを図示している。第1画像データ取得部52は、時系列に撮像した、検出対象の細胞を含む複数の位相差画像を取得する。例えば、10分、20分経過の都度、観察領域を撮像した1枚の位相差画像を取得することができる。入力データ生成部512は、複数の位相差画像それぞれから所定の画素数(例えば、g×g)で構成される切り出し画像を複数抽出(特定)する。入力データ生成部512は、複数の位相差画像毎に、複数の切り出し画像の各画素の輝度値に基づいて、複数の組の入力データを生成する。入力データの複数の組は、複数の位相差画像に対応する。   FIG. 12 is an explanatory view showing another example of the estimated nuclear staining image and the composite image. In FIG. 12, only one cell (cell nucleus) is illustrated for convenience. The first image data acquisition unit 52 acquires a plurality of phase difference images captured in time series and including cells to be detected. For example, one phase difference image obtained by imaging the observation region can be acquired each time 10 minutes or 20 minutes have elapsed. The input data generation unit 512 extracts (specifies) a plurality of cutout images each having a predetermined number of pixels (for example, g × g) from each of the plurality of phase difference images. The input data generation unit 512 generates a plurality of sets of input data for each of the plurality of phase difference images, based on the luminance value of each pixel of the plurality of cutout images. The plurality of sets of input data correspond to a plurality of phase difference images.

推定画像生成部513は、1枚の位相差画像に基づいて1枚の推定核染色画像を生成するので、複数の位相差画像に対して、位相差画像の枚数と同数の時系列の推定核染色画像を生成することができる。   Since the estimated image generation unit 513 generates one estimated nuclear staining image based on a single phase difference image, the time-series estimated nuclei of the same number as the number of phase difference images are generated for a plurality of phase difference images. Stained images can be generated.

表示部56は、複数の組の入力データが入力された検出モデル部511が出力する出力値に基づいて、細胞(細胞核)の推定移動軌跡を表示することができる。すなわち、図12Aの推定核染色画像では、細胞核の過去の推定位置から現在(直近)の推定位置までを推定移動軌跡として表している。また、図12Bの合成画像では、細胞及び該細胞内の細胞核の両方の過去の推定位置から現在(直近)の推定位置までを推定移動軌跡として表している。これにより、細胞の動的な挙動を正確に把握することができる。   The display unit 56 can display the estimated movement trajectory of the cell (cell nucleus) based on the output value output from the detection model unit 511 to which a plurality of sets of input data is input. That is, in the estimated nuclear staining image of FIG. 12A, the range from the past estimated position of the cell nucleus to the current (most recent) estimated position is represented as the estimated movement trajectory. Further, in the synthetic image of FIG. 12B, estimated moving trajectories represent from the past estimated position of both the cell and the cell nucleus in the cell to the current (most recent) estimated position. This enables accurate understanding of the dynamic behavior of the cells.

上述の例では、検出装置50は、一つの検出モデル部511を備える構成であったが、これに限定されるものではなく、複数の検出モデル部を備える構成でもよい。この場合、例えば、検出対象の細胞の関心領域の種別などに応じて、種別毎に検出モデルが異なる複数の検出モデル部を備えるようにすることができる。これにより、細胞の関心領域の種別に応じて最適な検出モデル部を用いることができ、細胞の検出精度をさらに高めることができる。   In the above-mentioned example, although detection device 50 was composition provided with one detection model part 511, it is not limited to this, A composition provided with a plurality of detection model parts may be sufficient. In this case, for example, depending on the type of the region of interest of the cell to be detected, etc., a plurality of detection model units may be provided which have different detection models for each type. Thereby, an optimal detection model unit can be used according to the type of the region of interest of cells, and the detection accuracy of cells can be further enhanced.

また、検出モデル部511は、再学習可能に構成することができる。学習処理部514は、検出モデル部511が有する複数のパラメータ(入力層と中間層との間の重み、中間層と出力層との間の重み、中間層間の重みなど)を更新して、検出モデル部511を再学習可能にすることができる。これにより、細胞の検出精度を維持することができる。   Further, the detection model unit 511 can be configured to be capable of relearning. The learning processing unit 514 updates and detects a plurality of parameters (weights between the input layer and the intermediate layer, weights between the intermediate layer and the output layer, weights between the intermediate layers, etc.) that the detection model unit 511 has, The model unit 511 can be made re-learnable. Thereby, the detection accuracy of cells can be maintained.

次に、検出モデル部511の他の構成について説明する。   Next, another configuration of the detection model unit 511 will be described.

図13は本実施の形態の検出モデル部511の構成の第2例を模式的に示す説明図である。図3に例示した第1例との相違点は、出力層のノード数が2(y1、y2)となっている。入力層の入力ノードの数、中間層の構成は第1例と同様である。出力層は、入力データ(x1、x2、…xN)に基づいて、ノード0は、輝度値が0(黒)である確率を出力し、ノード1は、輝度値が255(白)である確率を出力する。出力値は、0〜1の任意の値(整数に限定されない)を取り得る。   FIG. 13 is an explanatory view schematically showing a second example of the configuration of the detection model unit 511 of the present embodiment. The difference with the first example illustrated in FIG. 3 is that the number of nodes in the output layer is 2 (y1, y2). The number of input nodes in the input layer and the configuration of the middle layer are the same as in the first example. The output layer outputs the probability that the luminance value is 0 (black) based on the input data (x1, x2,... XN), and the node 1 has a probability that the luminance value is 255 (white) Output The output value may take any value between 0 and 1 (not limited to an integer).

図14は本実施の形態の検出モデル部511を学習させるための学習データの生成方法の第2例を示す説明図である。図14の学習データの生成方法は、図13に示す検出モデル部511の第2例に対応するものである。   FIG. 14 is an explanatory view showing a second example of a method of generating learning data for causing the detection model unit 511 of the present embodiment to learn. The method of generating learning data in FIG. 14 corresponds to the second example of the detection model unit 511 shown in FIG.

図14Aに示すように、学習データ生成部515は、観察領域を撮像した、学習用細胞の関心領域を含む核染色画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。   As shown in FIG. 14A, the learning data generation unit 515 acquires, from the memory 54, image data of a nuclear stained image (for example, having a resolution of 800 × 600) including the region of interest of the learning cell, in which the observation region is imaged.

図14Bに示すように、学習データ生成部515は、核染色画像に対して二値化処理を行って二値化画像を生成する。二値化することにより、例えば、発色位置を前景とすることができる。また、二値化することにより、細胞の関心領域と関心領域以外の領域との区別が明瞭になる。例えば、二値化することにより、細胞核に相当する箇所と、細胞核に相当しない箇所との区別が明瞭になり、検出モデル部511を学習させやすくすることができる。   As shown in FIG. 14B, the learning data generation unit 515 performs a binarization process on the nuclear staining image to generate a binarized image. By binarizing, for example, the color development position can be made into the foreground. In addition, binarization makes it possible to clearly distinguish between the region of interest of the cell and the region other than the region of interest. For example, by binarizing, the distinction between the location corresponding to the cell nucleus and the location not corresponding to the cell nucleus becomes clear, and the detection model unit 511 can be made easy to learn.

図14Cに示すように、学習データ生成部515は、核染色画像から所定の画素数で構成される画素ブロック(例えば、g×g、g=28など)を複数特定する。図14Cの例では、便宜上、4つの画素ブロックG6、G7、G8、G9を示す。実際には、1枚の核染色画像から所要数の画素ブロックを特定することができる。所要数は、例えば、1枚の核染色画像の全画素数に等しい数でもよく、画像処理負荷を軽減すべく、全画素数よりも少ない数でもよい。画素ブロックの特定は、核染色画像上の位置をランダムに選ぶことができるが、細胞核を含む画素ブロックだけでなく、細胞核を含まない画素ブロックを特定することができる。細胞核を含まない画素ブロックも特定することにより、細胞核が存在しないのに誤って細胞核が存在する如く誤検出を防止して細胞の検出精度を高めることができる。なお、細胞が正細胞であるか死細胞であるかの区別をしなくてもよい。画素ブロックG6、G8は細胞核(発色箇所)を含み、画素ブロックG7、G9は細胞核を含んでいない。また、画素ブロックG6、G7、G8、G9の特徴量を二値とし、それぞれ1、0、1、0とする。二値は画素の画素値である。二値は、例えば、画素ブロックの中心に存在する画素の二値とすることができるが、これに限定されない。   As shown in FIG. 14C, the learning data generation unit 515 identifies a plurality of pixel blocks (for example, g × g, g = 28, etc.) configured with a predetermined number of pixels from the nuclear staining image. In the example of FIG. 14C, four pixel blocks G6, G7, G8 and G9 are shown for convenience. In practice, a required number of pixel blocks can be identified from one nuclear stain image. The required number may be, for example, a number equal to the total number of pixels of one nuclear stain image, or may be a number smaller than the total number of pixels to reduce the image processing load. Although specification of a pixel block can choose a position on a nuclear stain picture at random, it can specify not only a pixel block containing a cell nucleus but a pixel block not containing a cell nucleus. By specifying a pixel block that does not contain cell nuclei, it is possible to prevent erroneous detection such that cell nuclei are erroneously present even if cell nuclei are not present, and to improve cell detection accuracy. In addition, it is not necessary to distinguish whether the cell is a positive cell or a dead cell. The pixel blocks G6 and G8 contain cell nuclei (colored spots), and the pixel blocks G7 and G9 do not contain cell nuclei. Further, the feature quantities of the pixel blocks G6, G7, G8, and G9 are binary, and are set to 1, 0, 1, 0, respectively. Binary values are pixel values of pixels. The binary may be, for example, a binary of a pixel present at the center of the pixel block, but is not limited thereto.

学習データ生成部515は、観察領域を撮像した、学習用細胞を含む位相差画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。なお、位相差画像と核染色画像とは、学習用細胞の同一の観察領域を同一時刻に撮像したものである。   The learning data generation unit 515 acquires, from the memory 54, image data of a phase difference image (for example, having a resolution of 800 × 600) including the learning cells, in which the observation area is imaged. The phase difference image and the nuclear staining image are obtained by imaging the same observation area of the learning cell at the same time.

学習データ生成部515は、核染色画像上で特定した画素ブロックに対応する位相差画像の画素ブロックに、核染色画像上で特定した画素ブロックの二値化された所定画素の画素値である二値(0又は1)を関連付けて学習データを生成する。より具体的には、学習データ生成部515は、位相差画像の画素ブロックに、核染色画像上で特定した画素ブロック内の中心画素の画素値である二値を関連付けて学習データを生成する。画素値である二値を学習用データ(教師データ)として用いるので、例えば、特徴ベクトルなどを算出して教師データとして用いる場合に比べて、適切な特徴ベクトルの設計が不要であり、特徴ベクトルを算出する場合に比べて、画素値をそのまま用いることができるので、処理が簡単になるとともに精度の高い細胞検出を可能とする。   The learning data generation unit 515 sets the pixel block of the phase difference image corresponding to the pixel block specified on the nuclear stain image to the pixel value of the binarized predetermined pixel of the pixel block specified on the nuclear stain image. A value (0 or 1) is associated to generate learning data. More specifically, the learning data generation unit 515 generates learning data by associating the pixel block of the phase difference image with the binary value which is the pixel value of the central pixel in the pixel block identified on the nuclear stain image. Since binary values that are pixel values are used as learning data (teacher data), for example, there is no need to design a suitable feature vector as compared to the case where a feature vector or the like is calculated and used as teacher data. Since pixel values can be used as they are, calculation can be simplified, and highly accurate cell detection can be performed.

図14Dに示すように、学習データ生成部515は、核染色画像上の画素ブロックG6、G7、G8、G9に対応する位相差画像の領域X6、X7、X8、X9(切り出し画像)を切り出す。そして、領域X6〜X9に、画素ブロックG6〜G9の二値を教師ラベルとして関連付けている。領域X6〜X9は、それぞれg×gの画素で構成されるので、領域X6については、サンプルX1の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x61、x62、…、x6N)が生成され、教師ラベルは1となる。   As shown in FIG. 14D, the learning data generation unit 515 cuts out regions X6, X7, X8, X9 (cut-out images) of the phase difference image corresponding to the pixel blocks G6, G7, G8, G9 on the nuclear staining image. The binary values of the pixel blocks G6 to G9 are associated with the regions X6 to X9 as teacher labels. Regions X6 to X9 are each composed of g × g pixels. Therefore, for region X6, a vector (x61, x62, N) having N (= g × g) components as learning input data of sample X1. ..., x 6 N) are generated, and the teacher label is 1.

領域X7については、サンプルX7の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x71、x72、…、x7N)が生成され、教師ラベルは0となる。領域X8については、サンプルX8の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x81、x82、…、x8N)が生成され、教師ラベルは1となる。また、領域X9については、サンプルX9の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x91、x92、…、x9N)が生成され、教師ラベルは0となる。   For the region X7, a vector (x71, x72,..., X7N) having N (= g × g) components is generated as learning input data of the sample X7, and the teacher label is zero. For the region X8, a vector (x81, x82,..., X8N) having N (= g × g) components is generated as learning input data of the sample X8, and the teacher label is 1. Further, for the region X9, a vector (x91, x92,..., X9N) having N (= g × g) components is generated as learning input data of the sample X9, and the teacher label is zero.

図15は本実施の形態の学習処理部514による学習の第2例を示す説明図である。学習処理部514は、学習データ生成部515が生成した学習データに基づいて検出モデル部511を学習させる。具体的には、学習処理部514は、教師ラベルが1のサンプルX6の学習用入力データ(x61、x62、…、x6N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノード1の出力値y2が1に近づくよう、かつ出力ノード0の出力値y1が0に近づくように学習を行う。   FIG. 15 is an explanatory view showing a second example of learning by the learning processing unit 514 of the present embodiment. The learning processing unit 514 causes the detection model unit 511 to learn based on the learning data generated by the learning data generation unit 515. Specifically, the learning processing unit 514 inputs learning input data (x61, x62,..., X6N) of the sample X6 of which the teacher label is 1 to each input node of the input layer, and outputs the output node of the output layer The learning is performed so that the output value y2 of 1 approaches 1 and the output value y1 of the output node 0 approaches 0.

また、図示していないが、教師ラベルが0のサンプルX7の学習用入力データ(x71、x72、…、x7N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノード0の出力値y1が1に近づくよう、かつ出力ノード1の出力値y2が0に近づくように学習を行う。サンプルX8、X9の学習用入力データについても同様である。   Although not shown, learning input data (x71, x72,..., X7N) of sample X7 having a teacher label of 0 is input to each input node of the input layer, and the output of output node 0 of the output layer The learning is performed so that the value y1 approaches 1 and the output value y2 of the output node 1 approaches 0. The same applies to learning input data of the samples X8 and X9.

すなわち、教師ラベル1の入力データを入力した場合には、ノード0が0に、かつノード1が1に近づくように学習を行い、教師ラベル0の入力データを入力した場合には、ノード0が1に、かつノード1が0に近づくように学習を行う。   That is, when the input data of the teacher label 1 is input, learning is performed so that the node 0 approaches 0 and the node 1 approaches 1 and when the input data of the teacher label 0 is input, the node 0 The learning is performed so that the node 1 approaches 0 to 1 and 0.

図16は本実施の形態の処理部51の学習処理の手順の第2例を示すフローチャートである。以下では、便宜上、処理の主体を処理部51として説明する。処理部51は、観察領域を撮像した、学習用細胞を含む位相差画像の画像データを取得し(S51)、同一の観察領域を同時刻に撮像した、当該学習用細胞の関心領域を含む核染色画像の画像データを取得する(S52)。   FIG. 16 is a flowchart showing a second example of the procedure of the learning process of the processing unit 51 of the present embodiment. Hereinafter, for the sake of convenience, the subject of the process will be described as the processing unit 51. The processing unit 51 acquires the image data of the phase difference image including the cells for learning, which images the observation area (S51), and images the same observation area at the same time, including the region of interest of the cells for learning Image data of a stained image is acquired (S52).

処理部51は、核染色画像を二値化し(S53)、二値化した核染色画像からランダムに画素ブロックを複数特定し(S54)、特定した画素ブロックの中心画素の二値を記録する(S55)。処理部51は、位相差画像から画素ブロックに対応する位置の切り出し画像を抽出する(S56)。   The processing unit 51 binarizes the nuclear staining image (S53), randomly identifies a plurality of pixel blocks from the binarized nuclear staining image (S54), and records the binary value of the central pixel of the identified pixel block (S53) S55). The processing unit 51 extracts the cutout image of the position corresponding to the pixel block from the phase difference image (S56).

処理部51は、抽出した切り出し画像の各画素の輝度値を学習用入力データとし、切り出し画像に対応する画素ブロックの中心画素の二値を教師ラベルとして学習データを生成する(S57)。処理部51は、生成した学習データに基づいて検出モデル部511を学習させる(S58)。   The processing unit 51 generates learning data with the luminance value of each pixel of the extracted clipped image as learning input data and the binary value of the central pixel of the pixel block corresponding to the clipped image as a teacher label (S57). The processing unit 51 causes the detection model unit 511 to learn based on the generated learning data (S58).

処理部51は、検出モデル部511の出力値の精度が許容範囲内であるか否かを判定し(S59)、許容範囲内でない場合(S59でNO)、ステップS51以降の処理を続ける。出力値の精度が許容範囲内である場合(S59でYES)、処理部51は、処理を終了する。   The processing unit 51 determines whether the accuracy of the output value of the detection model unit 511 is within the allowable range (S59), and if it is not within the allowable range (NO in S59), the processing from step S51 is continued. If the accuracy of the output value is within the allowable range (YES in S59), the processing unit 51 ends the process.

第2例における入力データの生成方法は、図7に例示した第1例と同様であり、位相差画像から、M個(M=m×n)の切り出し画像A1、A2、…、AMを切り出す。   The method of generating input data in the second example is the same as that of the first example illustrated in FIG. 7, and M (M = m × n) cutout images A1, A2,..., AM are cut out from the phase difference image. .

図17は本実施の形態の検出モデル部511による検出処理の第2例を示す説明図である。入力層のそれぞれ入力ノードには、切り出し画像A1についての入力データ(a11、a12、a13、…a1N)が入力されると、出力層の出力ノードには出力データB1が出力される。出力データB1は、出力ノード0の確率が0.4であり、出力ノード1の確率が0.1である。出力ノード0の確率が出力ノード1の確率以上である場合、出力値を0とする。また、出力ノード0の確率が出力ノード1の確率未満である場合、出力値を1とする。出力データB1については、出力ノード0の確率が出力ノード1の確率以上であるので、出力値b1は0となる。   FIG. 17 is an explanatory view showing a second example of detection processing by the detection model unit 511 of the present embodiment. When input data (a11, a12, a13,... A1N) for the cutout image A1 is input to each input node of the input layer, output data B1 is output to an output node of the output layer. In the output data B1, the probability of the output node 0 is 0.4, and the probability of the output node 1 is 0.1. If the probability of the output node 0 is equal to or higher than the probability of the output node 1, the output value is set to 0. When the probability of the output node 0 is less than the probability of the output node 1, the output value is set to 1. As for the output data B1, since the probability of the output node 0 is equal to or higher than the probability of the output node 1, the output value b1 is zero.

切り出し画像A2についての入力データ(a21、a22、a23、…a2N)が入力されると、出力層の出力ノードには出力データB2が出力される。出力データB2は、出力ノード0の確率が0.3であり、出力ノード1の確率が0.8である。出力データB2については、出力ノード0の確率が出力ノード1の確率未満であるので、出力値b2は1となる。   When input data (a21, a22, a23,... A2N) for the cutout image A2 is input, output data B2 is output to the output node of the output layer. In the output data B2, the probability of the output node 0 is 0.3, and the probability of the output node 1 is 0.8. As for the output data B2, since the probability of the output node 0 is less than the probability of the output node 1, the output value b2 is 1.

以下、同様にして、切り出し画像AMについての入力データ(aM1、aM2、aM3、…aMN)が入力されると、出力層の出力ノードには出力データBMが出力される。出力データBMは、出力ノード0の確率が0.5であり、出力ノード1の確率が0.2である。出力データBMについては、出力ノード0の確率が出力ノード1の確率以上であるので、出力値bMは0となる。   Similarly, when input data (aM1, aM2, aM3,... AMN) for the cutout image AM is input, the output data BM is output to the output node of the output layer. In the output data BM, the probability of the output node 0 is 0.5, and the probability of the output node 1 is 0.2. As for the output data BM, since the probability of the output node 0 is equal to or higher than the probability of the output node 1, the output value bM is zero.

推定画像生成部513は、検出モデル部511の出力ノードから出力される出力値b1、b2、…、bMに基づいて、核染色画像を撮像することなく、核染色画像の推定画像を生成する。図7に示すように、位相差画像の解像度をm×nとすると、推定画像生成部513は、M(=m×n)個の出力値を、m×nの各画素に対応させることにより、m×nの推定核染色画像を生成する。   The estimated image generation unit 513 generates an estimated image of the nuclear staining image based on the output values b1, b2,..., BM output from the output node of the detection model unit 511 without capturing the nuclear staining image. As illustrated in FIG. 7, assuming that the resolution of the phase difference image is m × n, the estimated image generation unit 513 associates M (= m × n) output values with m × n pixels. , M × n estimated nuclear staining images.

図18は本実施の形態の処理部51による検出処理の手順の第2例を示すフローチャートである。処理部51は、検出対象の細胞を含む位相差画像の画像データを取得し(S71)、取得した位相差画像を走査して切り出し画像を抽出する(S72)。処理部51は、抽出した切り出し画像の各画素の輝度値に基づいて、入力データを生成する(S73)。   FIG. 18 is a flowchart showing a second example of the procedure of detection processing by the processing unit 51 of the present embodiment. The processing unit 51 acquires image data of a phase difference image including cells to be detected (S71), and scans the acquired phase difference image to extract a cutout image (S72). The processing unit 51 generates input data based on the luminance value of each pixel of the extracted cutout image (S73).

処理部51は、生成した入力データを検出モデル部511の入力ノードに入力し(S74)、切り出し画像毎に検出モデル部511が出力したノード0の値(確率)≧ノード1の値(確率)の場合、出力値を0(黒)とし、ノード0の値(確率)<ノード1の値(確率)の場合、出力値を1(白)として、推定核染色画像の画素値(輝度値)を決定する(S75)。   The processing unit 51 inputs the generated input data to the input node of the detection model unit 511 (S74), and the value of node 0 (probability) output by the detection model unit 511 for each cutout image 値 the value of node 1 (probability) In this case, the output value is 0 (black), and if the value of node 0 (probability) <the value of node 1 (probability), the output value is 1 (white), and the pixel value (brightness value) of the estimated nuclear staining image (S75).

処理部51は、推定核染色画像を生成し(S76)、位相差画像と、推定核染色画像とを対比して表示し(S77)、処理を終了する。   The processing unit 51 generates an estimated nuclear staining image (S76), contrasts and displays the phase difference image and the estimated nuclear staining image (S77), and ends the processing.

なお、本実施の形態の処理部51、表示部56は、CPU、GPU、ROM、RAM、記録媒体読取部などで構成することができる。記録媒体に記録されたコンピュータプログラムを記録媒体読取部で読み取ってRAMに格納することができる。RAMに格納されたコンピュータプログラムをCPU、GPUで実行させることにより、処理部51、表示部56で行う処理を実行することができる。なお、CPUは、プロセッサ、プロセッサデバイス、プロセッシングユニットなどの総称とし、1又は複数で構成することができる。また、コンピュータプログラムは、記録媒体読取部で読み取る構成に代えて、インターネットなどのネットワークを介してダウンロードすることもできる。   The processing unit 51 and the display unit 56 in the present embodiment can be configured by a CPU, a GPU, a ROM, a RAM, a recording medium reading unit, and the like. The computer program recorded on the recording medium can be read by the recording medium reading unit and stored in the RAM. The processing performed by the processing unit 51 and the display unit 56 can be executed by causing the CPU and the GPU to execute the computer program stored in the RAM. Note that the CPU is a generic term of a processor, a processor device, a processing unit, and the like, and can be configured of one or more. The computer program can also be downloaded via a network such as the Internet, instead of the configuration in which the recording medium reading unit reads it.

前述の図14、図16等に示す第2例では、核染色画像に対して二値化処理を行う構成であったが、以下では、二値化処理の前に行う前処理について説明する。   In the second example shown in FIG. 14 and FIG. 16 etc. described above, the configuration for performing the binarization processing on the nuclear staining image is described, but in the following, the pre-processing performed before the binarization processing will be described.

図19は核染色画像を異なるしきい値で二値化して得られる二値化後の核染色画像の例を示す説明図である。図19Aは、撮像して得られた核染色画像(二値化する前の元画像)を示す。細胞に対して核染色を行うと、細胞の関心領域(例えば、細胞核)は必ずしも同じ強度で発光しないので、図19Aに示すように、細胞毎の発色の違い、あるいは画像全体の明るさのムラが存在する。   FIG. 19 is an explanatory view showing an example of a nuclear staining image after binarization obtained by binarizing a nuclear staining image with different threshold values. FIG. 19A shows a nuclear staining image (original image before binarization) obtained by imaging. When nuclear staining is performed on cells, the region of interest (for example, the cell nucleus) of the cells does not necessarily emit light at the same intensity, so differences in coloring between cells or unevenness in brightness of the entire image as shown in FIG. 19A. Exists.

図19Bに示すように、しきい値:140で二値化すると、画像中の細胞ではない領域の輝度が比較的高い画素が、あたかも発色位置として前景となり、細胞でない箇所が誤って細胞として扱われることになる。   As shown in FIG. 19B, when the threshold value: 140 is binarized, pixels with relatively high luminance in the non-cell region in the image become foreground as if color development positions, and non-cell locations are erroneously treated as cells. It will be

また、図19Cに示すように、しきい値:150で二値化すると、画像中の細胞ではない領域が誤って細胞として扱われることは多少抑制することができるものの、弱い強度で発色している細胞核が除去され、細胞核を検出することができない場合が生じる。   Further, as shown in FIG. 19C, when binarizing with the threshold value: 150, it is possible to somewhat suppress that a region which is not a cell in the image is erroneously treated as a cell, but it is colored with a weak intensity Cell nuclei are removed, and there are cases where cell nuclei can not be detected.

また、図19Dに示すように、しきい値:160で二値化すると、画像中の細胞ではない領域が誤って細胞として扱われることは防止することができるものの、若干強い強度で発色している細胞核であっても除去される場合が生じる。このように、どのようなしきい値を用いたとしても、全ての細胞核を正確に検出することができない場合がある。   Further, as shown in FIG. 19D, when binarizing with the threshold value: 160, it is possible to prevent that a region which is not a cell in the image is mistakenly treated as a cell, but it is colored with a slightly higher intensity Even some cell nuclei may be removed. Thus, there may be cases where it is not possible to accurately detect all cell nuclei, whatever threshold is used.

図20は本実施の形態の処理部51による二値化処理の前処理の手順の一例を示すフローチャートである。なお、図20に示す処理は、図16に示したステップS52とステップS53との間に追加される処理を含む。   FIG. 20 is a flow chart showing an example of a pre-processing procedure of the binarization processing by the processing unit 51 of the present embodiment. The process shown in FIG. 20 includes the process to be added between step S52 and step S53 shown in FIG.

処理部51は、核染色画像の画像データを取得する(S101)。処理部51は、核染色画像の注目画素の周辺画素の輝度値が注目画素の輝度値よりも小さい画素の数を注目画素の値として中間画像を生成する(S102)。注目画素は、核染色画像の左上から水平方向に走査し、水平方向の走査が終了したら走査位置を垂直方向にずらすとともに再度左から右に向かって走査を繰り返し、最終的に右下まで走査する。注目画素の周辺画素は、例えば、注目画素を含む、21×21画素とすることができるが、周辺画素の数はこれに限定されない。   The processing unit 51 acquires image data of a nuclear staining image (S101). The processing unit 51 generates an intermediate image with the number of pixels where the luminance value of the peripheral pixel of the target pixel of the nuclear staining image is smaller than the luminance value of the target pixel as the value of the target pixel (S102). The pixel of interest scans in the horizontal direction from the upper left of the nuclear staining image, shifts the scanning position in the vertical direction when scanning in the horizontal direction is finished, repeats scanning from left to right again, and finally scans to the lower right . The peripheral pixels of the target pixel may be, for example, 21 × 21 pixels including the target pixel, but the number of peripheral pixels is not limited to this.

生成された中間画像では、画素値が大きい画素は、核染色画像の注目画素の周囲の輝度が低いことを表し、画素値が小さい画素は、核染色画像の注目画素の周囲の輝度が高いことを表している。すなわち、中間画像の画素値が小さい画素は、輝度値の相対値が高い画素を含み、発光強度が周囲よりも相対的に高い細胞核に対応すると言える。   In the generated intermediate image, a pixel having a large pixel value represents that the luminance around the target pixel of the nuclear staining image is low, and a pixel having a small pixel value has a high luminance around the target pixel of the nuclear staining image Represents That is, it can be said that a pixel having a small pixel value of the intermediate image includes a pixel having a high relative value of the luminance value, and corresponds to a cell nucleus having a relatively high light emission intensity than the surrounding.

処理部51は、中間画像をフーリエ変換して周波数スペクトルを算出し(S103)、低域通過フィルタを用いて高周波成分を除去する(S104)。これにより、細かい模様の箇所、あるいは輝度値が急激に変化するエッジの箇所などを除去することができ、核染色画像において、細胞核での輝度値の変化と異なる変化を示す箇所を除去することができる。   The processing unit 51 Fourier-transforms the intermediate image to calculate a frequency spectrum (S103), and removes high frequency components using a low pass filter (S104). As a result, it is possible to remove fine pattern parts or edge parts where the luminance value changes rapidly, etc., and to remove parts in the nuclear staining image that show a change different from the change in luminance value in cell nuclei. it can.

処理部51は、逆フーリエ変換により前処理済の核染色画像を生成し(S105)、核染色画像を二値化し(S106)、処理を終了する。なお、ステップS105、S106で言及する核染色画像は、厳密には、核染色画像に対応する中間画像であるが、本明細書では、便宜上、核染色画像として説明する。   The processing unit 51 generates a preprocessed nuclear stain image by inverse Fourier transform (S105), binarizes the nuclear stain image (S106), and ends the process. The nuclear staining image referred to in steps S105 and S106 is strictly an intermediate image corresponding to the nuclear staining image, but in the present specification, it will be described as a nuclear staining image for convenience.

図21は本実施の形態の処理部51による二値化処理の前処理での画像の例を示す説明図である。図21Aは、元画像である核染色画像を示す。図21Bは、注目画素の周辺画素の範囲(例えば、21×21画素)内で注目画素よりも輝度値の低い画素数を注目画素の値とした中間画像を示す。図21Cはフーリエ変換後の周波数スペクトルを示す。図21Cでは、中心付近が低周波成分であり、中心から離れるに従って高周波成分となる。   FIG. 21 is an explanatory view showing an example of an image in preprocessing of the binarization processing by the processing unit 51 of the present embodiment. FIG. 21A shows a nuclear staining image which is an original image. FIG. 21B shows an intermediate image in which the number of pixels having a luminance value lower than that of the pixel of interest within the range (for example, 21 × 21 pixels) of the peripheral pixels of the pixel of interest is the value of the pixel of interest. FIG. 21C shows a frequency spectrum after Fourier transform. In FIG. 21C, the vicinity of the center is a low frequency component, and the farther from the center, the higher the frequency.

図21Dは、低域通過フィルタによって高周波成分を除去した周波数スペクトルを示す。図21Dの例では、中心付近の円形状以外が、高周波成分として除去されている。図21Eは逆フーリエ変換後の中間画像を示す。図21Fは二値化後の画像を示す。図21Aと図21Fとを比較すると、図21Aにおいて、発光強度が異なる(輝度値が異なる)細胞核が前景として表れていることが分かる。   FIG. 21D shows a frequency spectrum in which high frequency components are removed by a low pass filter. In the example of FIG. 21D, except the circular shape near the center is removed as the high frequency component. FIG. 21E shows an intermediate image after inverse Fourier transform. FIG. 21F shows an image after binarization. Comparing FIG. 21A with FIG. 21F, it can be seen that in FIG. 21A, cell nuclei having different emission intensities (different luminance values) appear as the foreground.

上述のように、処理部51は、第2画像を取得する。処理部51は、取得した第2画像の注目画素の周辺画素(例えば、注目画素を含む21×21画素)の輝度値と注目画素の輝度値を比較し、注目画素よりも輝度値が小さい画素の画素数を算出し、算出した画素数を注目画素の画素値とすることにより中間画像を生成する。処理部51は、中間画像をフーリエ変換し、フーリエ変換後の周波数スペクトルにおいて高周波成分を除去する。処理部51は、高周波成分が除去された周波数スペクトルを逆フーリエ変換して中間画像(核染色画像)を生成する。処理部51は、生成した中間画像を二値化する。   As described above, the processing unit 51 acquires the second image. The processing unit 51 compares the luminance value of the peripheral pixel (for example, 21 × 21 pixels including the target pixel) of the target pixel of the acquired second image with the luminance value of the target pixel, and the pixel having the luminance value smaller than that of the target pixel. The intermediate image is generated by calculating the number of pixels of and the calculated number of pixels as the pixel value of the target pixel. The processing unit 51 performs Fourier transform on the intermediate image, and removes high frequency components in the frequency spectrum after the Fourier transform. The processing unit 51 performs inverse Fourier transform on the frequency spectrum from which high frequency components have been removed to generate an intermediate image (nuclear staining image). The processing unit 51 binarizes the generated intermediate image.

なお、二値化画像を得る他の方法としては、学習データ生成部515は、例えば、細胞がいない明るさのムラのみの背景画像との背景差分法(背景画像を得る方法として、細胞がいない状態を撮影する、タイムラプス画像から時系列方向に中央値を取った画像を求める等が考えられる)、あるいは、適応的二値化処理などを用いて二値化画像を生成することができる。適応的二値化処理は、二値化するための閾値を固定せず、複数の画素で構成される領域ごとに局所的に閾値を設定する方法である。例えば、ある領域内の画素の画素値の平均値を当該領域の閾値として設定する。   In addition, as another method of obtaining a binarized image, for example, the learning data generation unit 515 does not use cells as a method of background subtraction with a background image of brightness unevenness without cells (as a method of obtaining a background image, A binarized image can be generated by photographing a state, obtaining an image having a median value in a time-series direction from a time-lapse image, or the like, or using an adaptive binarization process or the like. The adaptive binarization process is a method of setting a threshold locally for each region configured of a plurality of pixels without fixing the threshold for binarization. For example, an average value of pixel values of pixels in a certain area is set as a threshold value of the area.

図22は本実施の形態の検出装置50の構成の他の例を示すブロック図である。図1に例示した構成との相違点は、図22の例では、学習処理部514、学習データ生成部515、第2画像データ取得部53を具備しない。すなわち、図22に示す検出装置50においては、検出モデル部511は、すでに学習済であり、さらなる学習を必要としない場合には、学習処理部514、学習データ生成部515、第2画像データ取得部53は必須の構成ではない。なお、図22に例示する検出装置50において、他の箇所は図1の構成と同様であるので説明は省略する。   FIG. 22 is a block diagram showing another example of the configuration of the detection apparatus 50 of the present embodiment. The difference from the configuration illustrated in FIG. 1 is that the learning processing unit 514, the learning data generation unit 515, and the second image data acquisition unit 53 are not provided in the example of FIG. That is, in the detection apparatus 50 shown in FIG. 22, when the detection model unit 511 has already learned and does not need further learning, the learning processing unit 514, the learning data generation unit 515, and the second image data acquisition The part 53 is not an essential component. In addition, in the detection apparatus 50 illustrated in FIG. 22, since the other part is the same as that of the structure of FIG. 1, description is abbreviate | omitted.

図23は本実施の形態の顕微鏡100の構成の一例を示すブロック図である。以下では、本実施の形態の撮像装置の一例として、顕微鏡100について説明する。顕微鏡100は、図1又は図22に例示した検出装置50を備える。なお、検出装置50は、顕微鏡100に組み込まれる構成に限定されない。   FIG. 23 is a block diagram showing an example of the configuration of the microscope 100 according to the present embodiment. Below, microscope 100 is explained as an example of an imaging device of this embodiment. The microscope 100 includes the detection device 50 illustrated in FIG. 1 or FIG. The detection device 50 is not limited to the configuration incorporated into the microscope 100.

顕微鏡100は、検出装置50の他に、位相差画像を撮像する際に白色色を出射する白色光源11、励起光によって蛍光を発生する核染色剤が付与された細胞Cが収容されたウェルプレート10、対物レンズ13、蛍光励起用光源12、ウェルプレート10の下方に配置された蛍光用ミラーユニット14、撮像素子15、撮像素子15が出力するアナログ値をデジタル値に変換するADコンバータ(A/D)16、CPU20、メモリ23、ユーザが顕微鏡100を操作するための操作部22、ウェルプレート10に対して蛍光励起用光源12、対物レンズ13、蛍光用ミラーユニット14及び撮像素子15などを水平方向に移動するための駆動制御部21などを備える。   In addition to the detection device 50, the microscope 100 is a white light source 11 that emits a white color when capturing a phase difference image, and a well plate in which cells C to which a nuclear stain agent that generates fluorescence by excitation light is accommodated. 10, an objective lens 13, a light source 12 for fluorescence excitation, a mirror unit 14 for fluorescence disposed below the well plate 10, an imaging device 15, an AD converter for converting analog values output from the imaging device 15 into digital values D) 16, the CPU 20, the memory 23, the operation unit 22 for the user to operate the microscope 100, the light source 12 for fluorescence excitation, the objective lens 13, the mirror unit 14 for fluorescence, the imaging device 15 etc. A drive control unit 21 for moving in the direction is provided.

位相差画像を撮像する場合、白色光源11からの白色光は、ウェルプレート10の上方から下方に向かって照射され、細胞Cを透過する光(回折光)と、細胞Cを透過しない光(直接光)との位相差によって、細胞の形状情報を明暗のコントラストとして撮像素子15で得ることができる。なお、顕微鏡100は、位相差画像に代えて、あるいは位相差画像とともに、明視野画像を撮像することもできる。   When imaging a phase difference image, the white light from the white light source 11 is emitted downward from above the well plate 10, and the light transmitted through the cell C (diffracted light) and the light not transmitted through the cell C (directly Due to the phase difference with light, the shape information of the cell can be obtained by the imaging device 15 as the contrast of light and dark. The microscope 100 can also capture a bright field image instead of or in addition to the phase difference image.

核染色画像を撮像する場合、蛍光励起用光源12から出射される励起光は、蛍光用ミラーユニット14によりウェルプレート10に向かって反射され、対物レンズ13を介して細胞Cに入射する。入射した励起光によって、細胞Cから蛍光が発せられる。細胞Cから発せられた蛍光は、対物レンズ13及び蛍光用ミラーユニット14を透過して撮像素子15に入射し、核染色画像を得ることができる。   When imaging a nuclear staining image, the excitation light emitted from the fluorescence excitation light source 12 is reflected by the fluorescence mirror unit 14 toward the well plate 10 and enters the cell C through the objective lens 13. Fluorescent light is emitted from the cell C by the incident excitation light. The fluorescence emitted from the cell C is transmitted through the objective lens 13 and the mirror unit 14 for fluorescence and is incident on the imaging device 15, whereby a nuclear staining image can be obtained.

位相差画像の撮像と核染色画像の撮像との切り替えは、CPU20の制御の下、同一箇所(観察領域)を同時刻に行うことができる。また、操作部22からの操作に応じて、例えば、撮影箇所、撮影タイミングを設定して自動で撮影することもできる。   The switching between the imaging of the phase difference image and the imaging of the nuclear staining image can be performed at the same time (observation region) under the control of the CPU 20. In addition, according to the operation from the operation unit 22, for example, it is possible to set an imaging location and imaging timing and to automatically perform imaging.

図24は本実施の形態の検出システムの構成の一例を示す模式図である。検出システムは、例えば、顕微鏡100、ユーザが使用する端末装置200、アプリケーション又はデータベースなどを提供するサーバ300などを備えることができる。端末装置200には、画像を表示することができる表示装置60が接続されている。なお、表示装置60を端末装置200に組み込むこともできる。図24に示す検出システムにおいて、本実施の形態の検出装置50は、顕微鏡100、端末装置200及びサーバ300のいずれか一つに組み込むことができる。前述の図23の例では、検出装置50を顕微鏡100に組み込んだ例を説明した。   FIG. 24 is a schematic view showing an example of the configuration of a detection system according to the present embodiment. The detection system can include, for example, a microscope 100, a terminal device 200 used by a user, a server 300 that provides an application or a database, and the like. The terminal device 200 is connected to a display device 60 capable of displaying an image. The display device 60 can also be incorporated into the terminal device 200. In the detection system shown in FIG. 24, the detection device 50 of the present embodiment can be incorporated into any one of the microscope 100, the terminal device 200, and the server 300. In the example of FIG. 23 described above, the example in which the detection device 50 is incorporated in the microscope 100 has been described.

顕微鏡100と端末装置200とは、例えば、通信線を介して接続することができる。また、端末装置200とサーバ300とは、インターネットなどの通信ネットワーク1を介して接続することができる。   The microscope 100 and the terminal device 200 can be connected, for example, via a communication line. The terminal device 200 and the server 300 can be connected via the communication network 1 such as the Internet.

サーバ300に検出装置50を組み込んだ場合、サーバ300は、細胞を検出する検出モデル部511、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する取得部、取得した画像データを検出モデル部511に入力し、細胞を染色することなく、細胞の関心領域を含む推定核染色画像に係る推定画像データを出力する出力部などを備える。   When the detection device 50 is incorporated in the server 300, the server 300 includes a detection model unit 511 that detects cells, an acquisition unit that acquires image data related to at least one of a phase difference image including cells and a bright field image, and an acquired image Data is input to a detection model unit 511, and an output unit or the like is provided which outputs estimated image data related to an estimated nuclear staining image including a region of interest of cells without staining the cells.

上述の実施の形態では、第2方法によって得られた第2画像の例として、核染色画像について説明した。核染色画像は、細胞核の染色だけでなく、細胞内の小器官を認識できる画像も含まれる。また、第2画像としては、染色剤などを用いた核染色画像などの蛍光イメージングに限定されるものではなく、例えば、造影剤などを用いたRI(放射性同位元素)イメージングによる手法で得られた画像も含まれる。   In the above-mentioned embodiment, the nuclear staining image was described as an example of the second image obtained by the second method. Nuclear staining images include not only staining of cell nuclei but also images capable of recognizing organelles in cells. In addition, the second image is not limited to fluorescence imaging such as nuclear staining image using a staining agent etc. For example, it is obtained by a method by RI (radioisotope) imaging using a contrast agent etc. Images are also included.

次に、マウスの表皮細胞の提供方法について説明する。なお、提供する細胞として、以下では、マウスの表皮細胞について説明するが、提供する細胞は、マウスの表皮細胞に限定されるものではない。   Next, a method for providing mouse epidermal cells will be described. In addition, although the epidermal cell of a mouse | mouth is demonstrated below as a cell to provide, the cell to provide is not limited to the epidermal cell of a mouse | mouth.

図25は本実施の形態のマウスの表皮細胞の提供方法の一例を示す模式図である。図25に示すように、通信ネットワークを介して、配信サーバ310、提供サーバ320、ユーザが使用する端末装置201、タブレット端末202などが接続されている。なお、タブレット端末202は、スマートフォンでもよい。   FIG. 25 is a schematic view showing an example of the method for providing epidermal cells of the mouse of the present embodiment. As shown in FIG. 25, a distribution server 310, a provision server 320, a terminal device 201 used by a user, a tablet terminal 202, and the like are connected via a communication network. The tablet terminal 202 may be a smartphone.

配信サーバ310の送信部311は、本実施の形態のコンピュータプログラムを特定のユーザの端末装置201に配信する。端末装置201は、配信されたコンピュータプログラムをインストールすることができ、これによって、端末装置201は、本実施の形態の検出装置50が組み込まれた構成となる。特定のユーザは、例えば、本実施の形態のコンピュータプログラムを用いて細胞の解析を行う企業、研究機関、医療機関などのユーザであり、予め登録されているユーザとすることができる。   The transmitting unit 311 of the distribution server 310 distributes the computer program of the present embodiment to the terminal device 201 of a specific user. The terminal device 201 can install the distributed computer program, whereby the terminal device 201 has a configuration in which the detection device 50 of the present embodiment is incorporated. The specific user is, for example, a user of a company, a research institution, a medical institution or the like who analyzes cells using the computer program of the present embodiment, and can be a user registered in advance.

ユーザは、タブレット端末202から、提供サーバ320に対して、マウスの表皮細胞の提供を要求する。当該要求には、ユーザの認証のためのID、パスワードなどを含めることができる。   The user requests the provision server 320 to provide the epidermal cells of the mouse from the tablet terminal 202. The request can include an ID for authenticating the user, a password, and the like.

提供サーバ320の受信部321は、ユーザからの要求を受信すると、認証部322は、ユーザが正規のユーザであるか否かの認証処理を行う。認証処理の結果、正規のユーザからの要求である場合、情報生成部323は、当該ユーザにマウスの表皮細胞を提供するための提供情報を生成する。マウスの表皮細胞を提供するための提供情報は、例えば、マウスの表皮細胞を輸送するための宛先情報などを含む。   When the reception unit 321 of the providing server 320 receives a request from the user, the authentication unit 322 performs an authentication process as to whether the user is a legitimate user. As a result of the authentication process, if the request is from a legitimate user, the information generation unit 323 generates provided information for providing the user with the epidermal cells of the mouse. The provided information for providing mouse epidermal cells includes, for example, destination information for transporting mouse epidermal cells and the like.

これにより、本実施の形態のコンピュータプログラムが配信された特定のユーザに対して、マウスの表皮細胞を間違いなく提供することができる。また、学習に使用した細胞と同じ培養環境で培養した細胞をコンピュータプログラムと一緒に提供することにより、当該コンピュータプログラムによる細胞の検出精度を担保することができる。   As a result, mouse epidermal cells can be provided with certainty to a specific user to whom the computer program of the present embodiment has been distributed. Further, by providing cells cultured in the same culture environment as the cells used for learning together with the computer program, it is possible to secure the detection accuracy of the cells by the computer program.

なお、配信サーバ310と提供サーバ320とは、統合して一つのサーバ(例えば、提供サーバ320)で構成することもできる。   The distribution server 310 and the providing server 320 can be integrated and configured as one server (for example, the providing server 320).

図26は本実施の形態のマウスの表皮細胞の提供方法の処理手順の一例を示すフローチャートである。以下では、便宜上、処理の主体を提供サーバ320として説明する。提供サーバ320は、特定のユーザに本実施の形態のプログラム(コンピュータプログラム)を配信する(S91)。提供サーバ320は、ユーザからマウスの表皮細胞の提供要求があるか否かを判定し(S92)、要求がない場合(S92でNO)、ステップS92の処理を続ける。   FIG. 26 is a flow chart showing an example of the processing procedure of the method for providing epidermal cells of the mouse of the present embodiment. Hereinafter, for convenience, the subject of the process will be described as the providing server 320. The providing server 320 distributes the program (computer program) of the present embodiment to a specific user (S91). The provision server 320 determines whether or not there is a request for provision of epidermal cells of the mouse from the user (S92), and if there is no request (NO in S92), the process of step S92 is continued.

要求があった場合(S92でYES)、提供サーバ320は、ユーザの認証処理を行い(S93)、正規のユーザであるか否かを判定する(S94)。正規のユーザである場合(S94でYES)、提供サーバ320は、当該ユーザにマウスの表皮細胞を提供するための提供情報を生成し(S95)、処理を終了する。正規のユーザではない場合(S94でNO)、提供サーバ320は、処理を終了する。   If there is a request (YES in S92), the provider server 320 performs user authentication processing (S93), and determines whether or not the user is a legitimate user (S94). If the user is a legitimate user (YES in S94), the providing server 320 generates the provided information for providing the user with the epidermal cells of the mouse (S95), and ends the process. If the user is not a legitimate user (NO in S94), the provider server 320 ends the process.

本実施の形態に係るコンピュータプログラムは、コンピュータに、検体を検出させるためのコンピュータプログラムであって、コンピュータに、第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する処理と、前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する処理と、前記第1画像データ及び第2画像データに基づいて学習データを生成する処理と、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる処理とを実行させる。   The computer program according to the present embodiment is a computer program for causing a computer to detect a sample, and the first image data relating to a first image including a learning sample obtained by the first method on a computer A second image relating to a second image including a region of interest of the learning sample, obtained by a second method different from the first method and capable of identifying the region of interest in the learning sample; A process of acquiring image data, a process of generating learning data based on the first image data and the second image data, and first image data of a first image including a specimen obtained by the first method And a process of making the detector learn based on the generated learning data so that the detector can detect the sample based on

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第2画像から所定の画素数で構成される画素ブロックを複数特定する処理と、特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの画素の特徴量を関連付けて前記学習データを生成する処理とを実行させる。   The computer program according to the present embodiment includes, in a computer, a process of specifying a plurality of pixel blocks including a predetermined number of pixels from the second image, and a pixel block of the first image corresponding to the specified pixel block. And processing for generating the learning data by associating feature amounts of pixels of the specified pixel block.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1画像の画素ブロックに、前記特定した画素ブロック内の所定画素の画素値を関連付けて前記学習データを生成する処理を実行させる。   The computer program according to the present embodiment causes the computer to execute the process of generating the learning data by associating the pixel block of the first image with the pixel value of the predetermined pixel in the specified pixel block.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第2画像を二値化する処理と、前記二値化する処理によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定する処理と、特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成する処理とを実行させる。   The computer program according to the present embodiment corresponds to the computer processing of binarizing the second image and binary values which are pixel values of pixels obtained by the binarizing processing. Any of a process of specifying a plurality of pixel blocks including the number of pixels, and a pixel value of a binarized predetermined pixel of the specified pixel block in the pixel block of the first image corresponding to the specified pixel block Are associated to execute the process of generating the learning data.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記検出器を学習させた結果に基づいて、検体の推定位置を表示する処理を実行させる。   The computer program according to the present embodiment causes the computer to execute processing of displaying the estimated position of the sample based on the result of learning the detector.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、前記第1画像から所定の画素数で構成される画素ブロックを複数特定する処理と、特定した画素ブロックの各画素の画素値に基づいて入力データを生成する処理と、生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理とを実行させる。   The computer program according to the present embodiment includes, in a computer, processing of acquiring first image data related to a first image including a sample obtained by the first method, and a predetermined number of pixels from the first image. A process of specifying a plurality of pixel blocks to be configured, a process of generating input data based on the pixel value of each pixel of the specified pixel block, and an output value output from the detector to which the generated input data is input On the basis thereof, the process of generating an estimated image of a second image including the region of interest of the sample obtained by the second method is executed without relying on the second method.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1画像と前記推定画像とを対比して表示する処理を実行させる。   The computer program according to the present embodiment causes a computer to execute a process of comparing and displaying the first image and the estimated image.

本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1方法によって時系列に得られた、検体を含む複数の第1画像それぞれから所定の画素数で構成される画素ブロックを複数特定する処理と、前記複数の第1画像毎に、特定した画素ブロックの各画素の画素値に基づいて複数の組の入力データを生成する処理と、前記複数の組の入力データが入力された前記検出器が出力する出力値に基づいて、検体の推定移動軌跡を表示する処理とを実行させる。   The computer program according to the present embodiment is a process for specifying on a computer a plurality of pixel blocks each having a predetermined number of pixels from each of a plurality of first images including a sample obtained in time series by the first method. And processing for generating a plurality of sets of input data based on the pixel value of each pixel of the specified pixel block for each of the plurality of first images, and the detector to which the plurality of sets of input data are input And a process of displaying the estimated movement trajectory of the sample based on the output value output by

本実施の形態に係るコンピュータプログラムは、コンピュータに、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る前記第1画像データを取得する処理と、前記細胞の関心領域を含む染色画像に係る前記第2画像データを取得する処理とを実行させる。   The computer program according to the present embodiment relates to a process of acquiring the first image data relating to at least one of a phase difference image containing cells and a bright field image on a computer, and a stained image containing a region of interest of the cells. And a process of acquiring the second image data.

本実施の形態に係るコンピュータプログラムは、コンピュータに、検体を検出させるためのコンピュータプログラムであって、コンピュータに、第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、取得した第1画像データ及び学習済検出器に基づいて、前記検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理とを実行させる。   The computer program according to the present embodiment is a computer program for causing a computer to detect a sample, and the computer acquires the first image data related to the first image including the sample obtained by the first method. The second method without depending on the second method different from the first method, which makes it possible to identify the region of interest in the sample based on the processing to be performed and the acquired first image data and the learned detector. And a process of generating an estimated image of a second image including the region of interest of the sample obtained by

本実施の形態に係る検出装置は、検体を検出する検出装置であって、第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する第1取得部と、前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する第2取得部と、前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部とを備える。   The detection device according to the present embodiment is a detection device that detects a sample, and a first acquisition unit that acquires first image data related to a first image including a learning sample, obtained by the first method. Acquiring second image data related to a second image including a region of interest of the learning sample, obtained by a second method different from the first method, which makes it possible to identify the region of interest in the learning sample A first image related to a first image including a specimen, obtained by the first method, and a learning data generation unit that generates learning data based on a second acquisition unit, the first image data and the second image data And a learning processing unit that causes the detector to learn based on the generated learning data so that the detector can detect the sample based on the data.

本実施の形態に係る検出装置は、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する取得部と、前記第1画像から所定の画素数で構成される画素ブロックを複数特定する特定部と、該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する画像生成部とを備える。   The detection device according to the present embodiment includes an acquisition unit for acquiring first image data related to a first image including a specimen obtained by the first method, and a predetermined number of pixels from the first image. The input data generation unit that generates input data based on the pixel value of each pixel of the pixel block identified by the identification unit, and the input data generated by the input data generation unit An image for generating an estimated image of a second image including a region of interest of the sample obtained by the second method based on the input output value of the detector and without relying on the second method And a generation unit.

本実施の形態に係る検出装置は、検体の関心領域の種別毎に前記検出器を複数備える。   The detection apparatus according to the present embodiment includes a plurality of the detectors for each type of region of interest of a sample.

本実施の形態に係る検出装置において、前記検出器は、入力データを出力値に変換する複数のパラメータを有し、前記学習処理部は、前記検出器の前記複数のパラメータを更新して前記検出器を再学習可能にしている。   In the detection device according to the present embodiment, the detector has a plurality of parameters for converting input data into an output value, and the learning processing unit updates the plurality of parameters of the detector to perform the detection. Makes it possible to relearn

本実施の形態に係る撮像装置は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方を出力する第1出力部と、撮像して得られた、細胞の関心領域を含む染色画像を出力する第2出力部と、前記第1出力部が出力する、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データを取得する第1取得部と、前記第2出力部が出力する、前記学習用細胞の関心領域を含む染色画像に係る第2画像データを取得する第2取得部と、前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、前記第1出力部が出力する、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づいて検出器が細胞を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部とを備える。   The imaging device according to the present embodiment includes a first output unit that outputs at least one of a phase difference image including a cell or a bright field image obtained by imaging, and a region of interest of the cell obtained by imaging And a first acquisition unit for acquiring at least one of a phase contrast image including learning cells and a bright field image output from the first output unit and a second output unit outputting a stained image including And a second acquisition unit for acquiring second image data related to a stained image including the region of interest of the learning cell, which is output by the second output unit, and based on the first image data and the second image data. A detector can detect a cell based on first data of at least one of a phase difference image including a cell and a bright field image output from the first data output unit and a learning data generation unit that generates learning data On the generated learning day And a learning section for learning the detector based on.

本実施の形態に係る撮像装置は、細胞を含む位相差画像又は明視野画像の少なくとも一方から所定の画素数で構成される画素ブロックを複数特定する特定部と、該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを生成する画像データ生成部とを備える。   The imaging device according to the present embodiment includes a specifying unit that specifies a plurality of pixel blocks each having a predetermined number of pixels from at least one of a phase difference image including a cell or a bright field image, and the pixel block specified by the specifying unit. Cells are stained based on an input data generation unit that generates input data based on the pixel value of each of the pixels, and an output value output from the detector to which the input data generated by the input data generation unit is input. And an image data generation unit that generates estimated image data related to the estimated image of the stained image including the region of interest of the cells.

本実施の形態に係るサーバは、細胞を検出する検出器と、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する取得部と、該取得部で取得した画像データを前記検出器に入力し、前記細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを出力する出力部とを備える。   The server according to the present embodiment includes a detector for detecting cells, an acquisition unit for acquiring image data relating to at least one of a phase difference image or bright field image including cells, and image data acquired by the acquisition unit. And an output unit that outputs estimated image data related to an estimated image of a stained image including a region of interest of the cells without staining the cells.

本実施の形態に係る画像データは、細胞が検出された画像データであって、撮像して得られる細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを含む構造を有し、前記推定画像は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づく入力データを、細胞を検出する検出器に入力して前記検出器が出力する出力値に基づいて生成され、前記検出器は、撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、前記学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習されている。   The image data according to the present embodiment is image data in which a cell is detected, and has a structure including estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging. The estimated image is input to input data based on first image data relating to at least one of a phase difference image including cells and a bright field image obtained by imaging, input to a detector for detecting cells, and the detector And the first image data relating to at least one of a phase difference image including a learning cell and a bright field image obtained by imaging and obtained by imaging. Learning is performed using learning data generated based on the second image data related to the stained image including the region of interest of the learning cell.

本実施の形態に係る検出器は、細胞を検出する検出器であって、撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、前記学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習されている。   The detector according to the present embodiment is a detector that detects a cell, and is obtained by imaging, first image data relating to at least one of a phase difference image including a learning cell and a bright field image; Learning is performed using learning data generated based on second image data related to a stained image including the region of interest of the learning cell, which is obtained by imaging.

本実施の形態に係る検出器は、前記染色画像から所定の画素数で構成される画素ブロックを複数特定し、特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画素ブロックに、特定した画素ブロックの画素の特徴量を関連付けて生成された学習データによって学習されている。   The detector according to the present embodiment identifies a plurality of pixel blocks each having a predetermined number of pixels from the stained image, and at least one pixel block of the phase difference image or bright field image corresponding to the identified pixel block. The learning data is generated by associating the feature amounts of the pixels of the specified pixel block with each other.

本実施の形態に係る検出器は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを入力データとして受け付ける入力部と、該入力部で受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する出力部とを備える。   The detector according to the present embodiment includes an input unit that receives, as input data, image data related to at least one of a phase difference image including cells and a bright field image obtained by imaging, and an input received by the input unit. And an output unit that outputs estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging without staining the cell based on data.

本実施の形態に係る検出方法は、細胞を検出する検出器による検出方法であって、前記検出器は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを入力データとして受け付け、受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する。   The detection method according to the present embodiment is a detection method using a detector that detects a cell, and the detector relates to at least one of a phase difference image containing cells and a bright field image obtained by imaging. Image data is received as input data, and estimated image data concerning an estimated image of a stained image including a region of interest of the cells obtained by imaging without staining the cells based on the received input data is output .

本実施の形態に係る提供方法は、所定環境下で培養された細胞の提供方法であって、コンピュータに、撮像して得られた、前記細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する処理と、取得した画像データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する処理とを実行させるコンピュータプログラムを配信し、前記コンピュータプログラムが配信されたユーザからの要求を受け付けた場合、前記ユーザに所定環境下で培養された細胞を提供するための情報を生成する。   A providing method according to the present embodiment is a method of providing a cell cultured under a predetermined environment, wherein at least one of a phase difference image including the cell and a bright field image obtained by imaging in a computer. Based on the process of acquiring the image data and the acquired image data, the estimated image data of the estimated image of the stained image including the region of interest of the cells obtained by imaging without staining the cells is output. A computer program for executing the processing to be performed, and when receiving a request from a user to which the computer program is distributed, to generate information for providing the user with cells cultured under a predetermined environment.

50 検出装置
51 処理部
511 検出モデル部
512 入力データ生成部
513 推定画像生成部
514 学習処理部
515 学習データ生成部
52 第1画像データ取得部
53 第2画像データ取得部
54 メモリ
55 出力部
56 表示部
60 表示装置
100 顕微鏡
200、201 端末装置
300 サーバ
310 配信サーバ
320 提供サーバ
50 detection device 51 processing unit 511 detection model unit 512 input data generation unit 513 estimated image generation unit 514 learning processing unit 515 learning data generation unit 52 first image data acquisition unit 53 second image data acquisition unit 54 memory 55 output unit 56 display Part 60 Display device 100 Microscope 200, 201 Terminal device 300 Server 310 Distribution server 320 Provision server

Claims (23)

コンピュータに、検体を検出させるためのコンピュータプログラムであって、
コンピュータに、
第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する処理と、
前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する処理と、
前記第1画像データ及び第2画像データに基づいて学習データを生成する処理と、
前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる処理と
を実行させるコンピュータプログラム。
A computer program for causing a computer to detect a sample,
On the computer
A process of acquiring first image data relating to a first image including a learning sample, obtained by the first method;
A process of acquiring second image data related to a second image including a region of interest of the learning sample, obtained by a second method different from the first method, which makes it possible to identify the region of interest in the learning sample When,
A process of generating learning data based on the first image data and the second image data;
Processing the device to learn the detector based on the generated learning data so that the detector can detect the specimen based on the first image data of the first image including the specimen obtained by the first method Computer program to run.
コンピュータに、
前記第2画像から所定の画素数で構成される画素ブロックを複数特定する処理と、
特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの画素の特徴量を関連付けて前記学習データを生成する処理と
を実行させる請求項1に記載のコンピュータプログラム。
On the computer
A process of specifying a plurality of pixel blocks each having a predetermined number of pixels from the second image;
The computer program according to claim 1, wherein the processing of generating the learning data by associating the feature amount of the pixel of the specified pixel block with the pixel block of the first image corresponding to the specified pixel block.
コンピュータに、
前記第1画像の画素ブロックに、前記特定した画素ブロック内の所定画素の画素値を関連付けて前記学習データを生成する処理を実行させる請求項2に記載のコンピュータプログラム。
On the computer
The computer program according to claim 2, wherein the process of generating the learning data by associating the pixel value of a predetermined pixel in the specified pixel block with the pixel block of the first image is performed.
コンピュータに、
前記第2画像を二値化する処理と、
前記二値化する処理によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定する処理と、
特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成する処理と
を実行させる請求項2に記載のコンピュータプログラム。
On the computer
A process of binarizing the second image;
A process of specifying a plurality of pixel blocks each having a predetermined number of pixels corresponding to each of binary values which are pixel values of pixels obtained by the binarizing process;
Processing for associating the pixel block of the first image corresponding to the specified pixel block with any of pixel values of predetermined pixels binarized of the specified pixel block to generate the learning data; The computer program according to Item 2.
コンピュータに、
前記検出器を学習させた結果に基づいて、検体の推定位置を表示する処理を実行させる請求項1から請求項4のいずれか一項に記載のコンピュータプログラム。
On the computer
The computer program according to any one of claims 1 to 4, wherein a process of displaying an estimated position of a sample is executed based on a result of learning the detector.
コンピュータに、
前記第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、
前記第1画像から所定の画素数で構成される画素ブロックを複数特定する処理と、
特定した画素ブロックの各画素の画素値に基づいて入力データを生成する処理と、
生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理と
を実行させる請求項1から請求項5のいずれか一項に記載のコンピュータプログラム。
On the computer
A process of acquiring first image data related to a first image including a sample obtained by the first method;
A process of specifying a plurality of pixel blocks each having a predetermined number of pixels from the first image;
A process of generating input data based on the pixel value of each pixel of the identified pixel block;
An estimation of a second image including a region of interest of the specimen obtained by the second method based on an output value output from the detector, to which the generated input data is input, without relying on the second method The computer program according to any one of claims 1 to 5, wherein a process of generating an image is performed.
コンピュータに、
前記第1画像と前記推定画像とを対比して表示する処理を実行させる請求項6に記載のコンピュータプログラム。
On the computer
The computer program according to claim 6, which executes processing of comparing and displaying the first image and the estimated image.
コンピュータに、
前記第1方法によって時系列に得られた、検体を含む複数の第1画像それぞれから所定の画素数で構成される画素ブロックを複数特定する処理と、
前記複数の第1画像毎に、特定した画素ブロックの各画素の画素値に基づいて複数の組の入力データを生成する処理と、
前記複数の組の入力データが入力された前記検出器が出力する出力値に基づいて、検体の推定移動軌跡を表示する処理と
を実行させる請求項1から請求項7のいずれか一項に記載のコンピュータプログラム。
On the computer
A process of specifying a plurality of pixel blocks each having a predetermined number of pixels from each of a plurality of first images including a specimen obtained in time series by the first method;
A process of generating a plurality of sets of input data based on the pixel value of each pixel of the specified pixel block for each of the plurality of first images;
The process according to any one of claims 1 to 7, wherein the process of displaying the estimated movement trajectory of the sample is performed based on an output value output from the detector to which the plurality of sets of input data are input. Computer program.
コンピュータに、
細胞を含む位相差画像又は明視野画像の少なくとも一方に係る前記第1画像データを取得する処理と、
前記細胞の関心領域を含む染色画像に係る前記第2画像データを取得する処理と
を実行させる請求項1から請求項8のいずれか一項に記載のコンピュータプログラム。
On the computer
A process of acquiring the first image data relating to at least one of a phase contrast image or a bright field image including cells;
The computer program according to any one of claims 1 to 8, further comprising: executing the process of acquiring the second image data related to the stained image including the region of interest of the cells.
コンピュータに、検体を検出させるためのコンピュータプログラムであって、
コンピュータに、
第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、
取得した第1画像データ及び学習済検出器に基づいて、前記検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理と
を実行させるコンピュータプログラム。
A computer program for causing a computer to detect a sample,
On the computer
A process of acquiring first image data related to a first image including a sample obtained by a first method;
The above-mentioned obtained by the second method without relying on the second method different from the first method, which makes it possible to identify the region of interest in the sample based on the acquired first image data and the learned detector. And generating an estimated image of a second image including a region of interest of the sample.
検体を検出する検出装置であって、
第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する第1取得部と、
前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する第2取得部と、
前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、
前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部と
を備える検出装置。
A detection device for detecting a sample,
A first acquisition unit configured to acquire first image data related to a first image including a learning sample, obtained by the first method;
Acquiring second image data relating to a second image including a region of interest of the sample for learning obtained by a second method different from the first method, which makes it possible to identify the region of interest in the sample for learning 2 acquisition parts,
A learning data generation unit that generates learning data based on the first image data and the second image data;
A learning processing unit that causes the detector to learn based on the generated learning data so that the detector can detect the specimen based on the first image data of the first image including the specimen obtained by the first method And a detector.
前記第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する取得部と、
前記第1画像から所定の画素数で構成される画素ブロックを複数特定する特定部と、
該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、
該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する画像生成部と
を備える請求項11に記載の検出装置。
An acquisition unit configured to acquire first image data relating to a first image including a specimen obtained by the first method;
An identifying unit that identifies a plurality of pixel blocks each having a predetermined number of pixels from the first image;
An input data generation unit that generates input data based on the pixel value of each pixel of the pixel block identified by the identification unit;
The region of interest of the sample obtained by the second method is included without relying on the second method based on the output value output from the detector at which the input data generated by the input data generation unit is input. The image generation part which produces | generates the presumed image of a 2nd image, The detection apparatus of Claim 11.
検体内の関心領域の種別毎に前記検出器を複数備える請求項11又は請求項12に記載の検出装置。   The detection device according to claim 11 or 12, further comprising a plurality of the detectors for each type of region of interest in a sample. 前記検出器は、
入力データを出力値に変換する複数のパラメータを有し、
前記学習処理部は、
前記検出器の前記複数のパラメータを更新して前記検出器を再学習可能にしている請求項11から請求項13のいずれか一項に記載の検出装置。
The detector
Have multiple parameters to convert input data to output value,
The learning processing unit
The detection device according to any one of claims 11 to 13, wherein the plurality of parameters of the detector are updated to make the detector re-learnable.
撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方を出力する第1出力部と、
撮像して得られた、細胞の関心領域を含む染色画像を出力する第2出力部と、
前記第1出力部が出力する、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データを取得する第1取得部と、
前記第2出力部が出力する、前記学習用細胞の関心領域を含む染色画像に係る第2画像データを取得する第2取得部と、
前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、
前記第1出力部が出力する、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づいて検出器が細胞を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部と
を備える撮像装置。
A first output unit that outputs at least one of a phase-contrast image containing cells and a bright-field image obtained by imaging;
A second output unit that outputs a stained image including a region of interest of cells obtained by imaging;
A first acquisition unit that acquires first image data related to at least one of a phase difference image including a learning cell and a bright field image output from the first output unit;
A second acquisition unit that acquires, from the second output unit, second image data related to a stained image including a region of interest of the learning cell;
A learning data generation unit that generates learning data based on the first image data and the second image data;
The detection is performed based on the generated learning data so that the detector can detect the cell based on the first image data related to at least one of the phase difference image including the cell and the bright field image output by the first output unit. An imaging device including a learning processing unit for learning a learning device.
細胞を含む位相差画像又は明視野画像の少なくとも一方から所定の画素数で構成される画素ブロックを複数特定する特定部と、
該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、
該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを生成する画像データ生成部と
を備える請求項15に記載の撮像装置。
An identifying unit that identifies a plurality of pixel blocks each having a predetermined number of pixels from at least one of a phase difference image or bright field image including cells;
An input data generation unit that generates input data based on the pixel value of each pixel of the pixel block identified by the identification unit;
Estimated image data related to an estimated image of a stained image including a region of interest of the cell without staining the cell based on the output value output from the detector, to which the input data generated by the input data generation unit is input The image pickup apparatus according to claim 15, further comprising: an image data generation unit configured to generate
細胞を検出する検出器と、
細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する取得部と、
該取得部で取得した画像データを前記検出器に入力し、前記細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを出力する出力部と
を備えるサーバ。
A detector for detecting cells,
An acquisition unit configured to acquire image data relating to at least one of a phase difference image including a cell and a bright field image;
A server that outputs image data acquired by the acquisition unit to the detector, and outputs estimated image data related to an estimated image of a stained image including a region of interest of the cells without staining the cells; .
細胞が検出された画像データであって、
撮像して得られる細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを含む構造を有し、
前記推定画像は、
撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づく入力データを、細胞を検出する検出器に入力して前記検出器が出力する出力値に基づいて生成され、
前記検出器は、
撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、前記学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習されている画像データ。
Image data in which cells are detected,
It has a structure including estimated image data related to an estimated image of a stained image including a region of interest of cells obtained by imaging;
The estimated image is
Input value based on first image data relating to at least one of a phase difference image including cells and a bright field image obtained by imaging, input value to a detector for detecting cells, and an output value output from the detector Generated based on the
The detector
The first image data according to at least one of a phase difference image including a learning cell and a bright field image obtained by imaging, and a stained image including a region of interest of the learning cell obtained by imaging Image data being learned by learning data generated based on the second image data.
細胞を検出する検出器であって、
撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、前記学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習されている検出器。
A detector for detecting cells,
The first image data according to at least one of a phase difference image including a learning cell and a bright field image obtained by imaging, and a stained image including a region of interest of the learning cell obtained by imaging A detector being trained by training data generated based on the second image data.
前記染色画像から所定の画素数で構成される画素ブロックを複数特定し、
特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画素ブロックに、特定した画素ブロックの画素の特徴量を関連付けて生成された学習データによって学習されている請求項19に記載の検出器。
Identifying a plurality of pixel blocks each having a predetermined number of pixels from the stained image;
20. The image processing device according to claim 19, wherein at least one pixel block of the phase difference image or the bright field image corresponding to the specified pixel block is learned by learning data generated by associating the feature amount of the pixel of the specified pixel block. Detector.
撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを入力データとして受け付ける入力部と、
該入力部で受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する出力部と
を備える請求項19又は請求項20に記載の検出器。
An input unit that receives, as input data, image data related to at least one of a phase difference image including cells and a bright field image obtained by imaging;
An output unit for outputting estimated image data of an estimated image of a stained image including a region of interest of the cells obtained by imaging without staining the cells based on the input data received by the input unit; 21. A detector according to claim 19 or 20 comprising.
細胞を検出する検出器による検出方法であって、
前記検出器は、
撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを入力データとして受け付け、
受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する検出方法。
A detection method using a detector for detecting cells, comprising:
The detector
Accept image data relating to at least one of a phase difference image containing cells and a bright field image obtained by imaging as input data;
A detection method for outputting estimated image data concerning an estimated image of a stained image including a region of interest of the cell obtained by imaging without staining the cell based on the received input data.
所定環境下で培養された細胞の提供方法であって、
コンピュータに、
撮像して得られた、前記細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する処理と、
取得した画像データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する処理と
を実行させるコンピュータプログラムを配信し、
前記コンピュータプログラムが配信されたユーザからの要求を受け付けた場合、前記ユーザに所定環境下で培養された細胞を提供するための情報を生成する提供方法。
A method for providing cells cultured under a predetermined environment, comprising:
On the computer
A process of acquiring image data related to at least one of a phase difference image including the cells and a bright field image obtained by imaging;
A computer program for executing a process of outputting estimated image data related to an estimated image of a stained image including a region of interest of the cells obtained by imaging without staining the cells based on the acquired image data; Deliver
A provision method for generating information for providing cells cultured under a predetermined environment to a user when receiving a request from a user to which the computer program has been distributed.
JP2017220327A 2017-11-15 2017-11-15 Computer program, detection device, imaging device, server, detector, detection method and provision method Active JP7135303B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017220327A JP7135303B2 (en) 2017-11-15 2017-11-15 Computer program, detection device, imaging device, server, detector, detection method and provision method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017220327A JP7135303B2 (en) 2017-11-15 2017-11-15 Computer program, detection device, imaging device, server, detector, detection method and provision method

Publications (2)

Publication Number Publication Date
JP2019091307A true JP2019091307A (en) 2019-06-13
JP7135303B2 JP7135303B2 (en) 2022-09-13

Family

ID=66836400

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017220327A Active JP7135303B2 (en) 2017-11-15 2017-11-15 Computer program, detection device, imaging device, server, detector, detection method and provision method

Country Status (1)

Country Link
JP (1) JP7135303B2 (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019135939A (en) * 2018-02-07 2019-08-22 澁谷工業株式会社 Cell count method, cell count device and cell culture method
JP2021045077A (en) * 2019-09-18 2021-03-25 株式会社ニコン Processor, processing method, processing program, observation device, cultivation device, cultivation system, and information processing system
JPWO2021070372A1 (en) * 2019-10-11 2021-04-15
JP2021064115A (en) * 2019-10-11 2021-04-22 株式会社島津製作所 Cell image analysis method and cell analysis device
JP7500945B2 (en) 2019-10-16 2024-06-18 大日本印刷株式会社 Computer program, cell counting method and cell counting device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009014939A (en) * 2007-07-03 2009-01-22 Olympus Corp Microscope system, method and program of its vs image formation
JP2011229409A (en) * 2010-04-23 2011-11-17 Nagoya Univ Cell evaluation device, incubator, cell evaluation method, cell evaluation program and cell culture method
US20140270457A1 (en) * 2013-03-15 2014-09-18 The Board Of Trustees Of The University Of Illinois Stain-free histopathology by chemical imaging
WO2015068759A1 (en) * 2013-11-06 2015-05-14 独立行政法人科学技術振興機構 Substrate for controlling movement direction of animal cells, and cell identification method and cell separation method which use said substrate
JP2016184224A (en) * 2015-03-25 2016-10-20 株式会社日立ハイテクノロジーズ Cytology support apparatus, cytology support method, remote diagnosis support system, service providing system, and image processing method
WO2018105432A1 (en) * 2016-12-06 2018-06-14 富士フイルム株式会社 Cell image evaluation device and cell image evaluation control program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009014939A (en) * 2007-07-03 2009-01-22 Olympus Corp Microscope system, method and program of its vs image formation
JP2011229409A (en) * 2010-04-23 2011-11-17 Nagoya Univ Cell evaluation device, incubator, cell evaluation method, cell evaluation program and cell culture method
US20140270457A1 (en) * 2013-03-15 2014-09-18 The Board Of Trustees Of The University Of Illinois Stain-free histopathology by chemical imaging
WO2015068759A1 (en) * 2013-11-06 2015-05-14 独立行政法人科学技術振興機構 Substrate for controlling movement direction of animal cells, and cell identification method and cell separation method which use said substrate
JP2016184224A (en) * 2015-03-25 2016-10-20 株式会社日立ハイテクノロジーズ Cytology support apparatus, cytology support method, remote diagnosis support system, service providing system, and image processing method
WO2018105432A1 (en) * 2016-12-06 2018-06-14 富士フイルム株式会社 Cell image evaluation device and cell image evaluation control program

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019135939A (en) * 2018-02-07 2019-08-22 澁谷工業株式会社 Cell count method, cell count device and cell culture method
JP2021045077A (en) * 2019-09-18 2021-03-25 株式会社ニコン Processor, processing method, processing program, observation device, cultivation device, cultivation system, and information processing system
JPWO2021070372A1 (en) * 2019-10-11 2021-04-15
WO2021070372A1 (en) * 2019-10-11 2021-04-15 株式会社島津製作所 Cell image analysis method and cell analysis device
JP2021064115A (en) * 2019-10-11 2021-04-22 株式会社島津製作所 Cell image analysis method and cell analysis device
JP7500945B2 (en) 2019-10-16 2024-06-18 大日本印刷株式会社 Computer program, cell counting method and cell counting device

Also Published As

Publication number Publication date
JP7135303B2 (en) 2022-09-13

Similar Documents

Publication Publication Date Title
JP7135303B2 (en) Computer program, detection device, imaging device, server, detector, detection method and provision method
CN109871735B (en) Image analysis method and device and manufacturing method for learning deep learning algorithm
US20210005308A1 (en) Transformation of digital pathology images
JP6959614B2 (en) Analyzer and flow cytometer
He et al. Deep learning for biospectroscopy and biospectral imaging: state-of-the-art and perspectives
Arndt-Jovin et al. Fluorescence digital imaging microscopy in cell biology
JP2018180635A (en) Image processing device, image processing method, and image processing program
CN110476101A (en) For pathological augmented reality microscope
JP6422616B1 (en) Data creation method and data usage method
WO2017150194A1 (en) Image processing device, image processing method, and program
Helmuth et al. Shape reconstruction of subcellular structures from live cell fluorescence microscopy images
WO2019180833A1 (en) Cell observation device
Herold et al. Automated detection and quantification of fluorescently labeled synapses in murine brain tissue sections for high throughput applications
JP2015210212A (en) Cell life-and-death determination system and cell life-and-death determination method
CN109767414A (en) A kind of multi-focus image fusing method based on gray scale median reference
Liu et al. SSG-Net: A robust network for adaptive multi-source image registration based on SuperGlue
JP7148776B2 (en) Colony identification system, colony identification method and colony identification program
JP2019128842A (en) Computer program, identification device, and identification method
Maddileti et al. Pseudo Trained YOLO R_CNN Model for Weapon Detection with a Real-Time Kaggle Dataset
WO2018003063A1 (en) Analysis device, analysis method, analysis program and display device
US20240185422A1 (en) Plaque detection method and apparatus for imaging of cells
Benisty et al. Review of data processing of functional optical microscopy for neuroscience
EP3973447B1 (en) Surface recognition
Tran et al. Classifying protein crystallization trial images using subordinate color channel
Japes et al. Multi-view semantic labeling of 3D point clouds for automated plant phenotyping

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20210927

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220714

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220802

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220815

R150 Certificate of patent or registration of utility model

Ref document number: 7135303

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150