JP7135303B2 - Computer program, detection device, imaging device, server, detector, detection method and provision method - Google Patents
Computer program, detection device, imaging device, server, detector, detection method and provision method Download PDFInfo
- Publication number
- JP7135303B2 JP7135303B2 JP2017220327A JP2017220327A JP7135303B2 JP 7135303 B2 JP7135303 B2 JP 7135303B2 JP 2017220327 A JP2017220327 A JP 2017220327A JP 2017220327 A JP2017220327 A JP 2017220327A JP 7135303 B2 JP7135303 B2 JP 7135303B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- learning
- pixel
- data
- detector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Description
本開示は、コンピュータプログラム、検出装置、撮像装置、サーバ、検出器、検出方法及び提供方法に関する。 TECHNICAL FIELD The present disclosure relates to computer programs, detection devices, imaging devices, servers , detectors , detection methods, and providing methods.
再生医療分野の産業化、研究の効率化のために細胞、菌等の微小検体の観察を自動化するための画像解析技術が強く望まれている。画像解析技術の中で、細胞を検出する技術は、最も基礎となるものであるが、顕微鏡画像の性質が一般的なカメラ画像と異なること、あるいは細胞は多数が密集して成長することなどから、様々な技術開発が行われている。 There is a strong demand for an image analysis technique for automating the observation of minute specimens such as cells and bacteria for the industrialization and efficiency of research in the field of regenerative medicine. Among the image analysis technologies, the technology to detect cells is the most basic one. , various technological developments are being carried out.
特許文献1には、位相差顕微鏡を用いて取得した細胞の位相差画像に対して二次微分フィルタを適用してエッジを抽出し、抽出したエッジが構成する円の面積が最大のものを浮遊細胞の形状として抽出する技術が開示されている。
In
また、特許文献2には、特定の菌に特異的に反応する化合物を用いて蛍光染色した微生物に励起光を照射し、発色した蛍光を解析することにより、特定の菌数を計量する技術が開示されている。
In addition,
しかし、特許文献1のような位相差画像では、そもそも細胞が無色透明であることが多いため細胞と背景との輝度差が小さく、また、多様な細胞の形状に合わせて適切なフィルタモデルの設計を行うことは実用上非常に困難である。このため、位相差画像では細胞が存在することは認識することができるものの、一つ一つの細胞を認識することが困難である。
However, in phase-contrast images such as those disclosed in
また、特許文献2のように、細胞に蛍光染色を施して細部を観察する際、染色によって細胞が変質又は死滅し、細胞の本来の挙動を認識することができない。また、蛍光染色するための作業やコストが発生する。
In addition, as in
本開示は、斯かる事情に鑑みてなされたものであり、一つ一つの細胞、菌等の微小検体を認識することができるコンピュータプログラム、検出装置、撮像装置、サーバ、検出器、検出方法及び提供方法を明らかにする。 The present disclosure has been made in view of such circumstances, and includes a computer program, a detection device, an imaging device, a server , a detector , and a detection method capable of recognizing minute specimens such as individual cells and bacteria. and how to provide it.
本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、コンピュータプログラムは、コンピュータに、検体を検出させるためのコンピュータプログラムであって、コンピュータに、第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する処理と、前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する処理と、前記第1画像データ及び第2画像データに基づいて学習データを生成する処理と、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる処理とを実行させる。 The present application includes a plurality of means for solving the above problems. To give an example, the computer program is a computer program for causing a computer to detect an analyte, and the computer is provided with the method obtained by the first method. Further, a process of acquiring first image data related to a first image including a learning specimen, and a second method different from the first method, which enables identification of a region of interest in the learning specimen. A process of acquiring second image data related to a second image including the region of interest of the learning specimen, a process of generating learning data based on the first image data and the second image data, and the first method and a process of learning the detector based on the generated learning data so that the detector can detect the specimen based on the obtained first image data related to the first image including the specimen.
本開示によれば、一つ一つの細胞、菌等の微小検体を認識することができる。 According to the present disclosure, minute specimens such as individual cells and bacteria can be recognized.
以下、本開示の実施の形態を図面に基づいて説明する。図1は本実施の形態の検出装置50の構成の一例を示すブロック図である。本実施の形態の検出装置は、検体を検出する装置である。検体は、後述の第2方法によりラベル付けすることにより識別可能な対象とするもの全てを含む。検体は、例えば、生体(動物)の様々な部位の細胞(例えば、マウスの表皮細胞など)、菌等の微小な識別対象を含むものである。第2方法は、検体の関心領域を識別可能にする方法である。第2方法により細胞核又は細胞膜を染色すると細胞核を識別可能とすることができ、その結果、細胞を検体として検出することができる。この場合、関心領域は、細胞核である。なお、第2方法には、細胞核を識別可能に強調するために、敢えて細胞質を染色することによって細胞核を際立たせる方法も含まれる。また、第2方法により生細胞の核だけを染色すると生細胞を識別可能にすることができ、その結果、生細胞を検体として検出することができる。この場合、関心領域は、生細胞である。また、検体は細胞又は菌のような生命体の一組織に限られるものではなく、特定の分子又はたんぱく質を含有するような個体粒子の集合体である紛体も対象として含めることができる。検体は、生細胞及び死細胞を区別しない場合、どちらか一方又は両方を区別する場合を含む。ほぼ全ての細胞には、細胞核(単に「核」ともいう)が存在し、細胞核は、真核生物の細胞を構成する細胞小器官の一つであり、核内には遺伝情報が保存されている。細胞の細胞膜で囲まれた部分である原形質のうち、細胞核以外の領域を細胞質という。本実施の形態の検出装置は、多数の細胞が密集した状態において、一つ一つの細胞を認識可能に検出するものであり、個々の細胞の細胞核を識別することにより、一つ一つの細胞の位置、及び細胞の数などを正確に検出することができる。なお、検体には、細菌、個体粒子、ゲル粒子などを含めることができる。以下、本明細書では、検体を細胞として説明する。
Embodiments of the present disclosure will be described below with reference to the drawings. FIG. 1 is a block diagram showing an example of the configuration of a
検出装置50は、処理部51、第1画像データ取得部52、第2画像データ取得部53、メモリ54、出力部55、表示部56などを備える。処理部51は、検出モデル部511、入力データ生成部512、推定画像生成部513、学習処理部514、学習データ生成部515などを備える。また、検出装置50は、画像を表示することができる表示装置60と接続することができる。なお、検出装置50は、例えば、ユーザが使用するパーソナルコンピュータなどの情報処理装置、様々なサービスやデータなどを提供するサーバ、あるいは検体を観察する顕微鏡などに組み込むことができる。
The
第1画像データ取得部52は、第1取得部及び取得部としての機能を有し、第1方法によって得られた、細胞(学習処理部514の学習用細胞、及び検出用の細胞の両方を含む)を含む第1画像に係る第1画像データを取得する。第1方法は、画像に対する個別の加工を施さないと細胞の関心領域(例えば、核など)を別個に明確に認識することが難しいような方法である。第1方法によって得られた第1画像とは、例えば、顕微鏡により得られる位相差画像及び明視野画像の少なくとも一方を含む。
The first image
位相差画像は、位相差顕微鏡によって得られる画像であり、光の回折及び干渉という二つの性質を利用し、明暗のコントラストにより無色透明な細胞を可視した画像である。細胞に光が入射すると光の位相変化が生じ(回折光)、一方、細胞の影響を受けていない光は位相変化が生じない(直接光)ので、両方の光の位相差によって、細胞の形状情報を明暗のコントラストとして得ることができる。 A phase-contrast image is an image obtained by a phase-contrast microscope, and is an image in which colorless and transparent cells are visualized by light-dark contrast by utilizing two properties of light diffraction and interference. When light enters a cell, it undergoes a phase change (diffracted light), while light that has not been affected by the cell does not (direct light). Information can be obtained as contrast between light and dark.
明視野画像は、透過電子顕微鏡によって得られる画像であり、多くの細胞を含む試料に対して入射した電子線のうち透過した電子線(透過波)のみによって結像した画像である。位相差画像及び明視野画像では、細胞に染色を行う必要がないので、細胞の分化など生きたままの姿を検出することができる。なお、本明細書では、第1方法によって得られた第1画像を位相差画像として説明する。 A bright-field image is an image obtained by a transmission electron microscope, and is an image formed only by electron beams (transmission waves) that have passed through the electron beams incident on a sample containing many cells. Phase-contrast images and bright-field images do not require cells to be stained, so they can detect living cells such as cell differentiation. In this specification, the first image obtained by the first method will be described as a phase contrast image.
第2画像データ取得部53は、第2取得部としての機能を有し、第1方法と異なる第2方法によって得られた、学習用細胞を含む第2画像に係る第2画像データを取得する。第2方法は、第1方法とは異なり、細胞の関心領域(例えば、核など)を別個に明確に認識することができるような方法である。別言すれば、細胞の関心領域は、第1方法によれば、画像に対する個別の加工を施さないと一つ一つを個別に識別することが難しく、一方、第2方法によれば、一つ一つを個別に識別することができるものということができる。なお、本明細書では、第2方法によって得られた第2画像を染色画像として説明する。
The second image
核染色画像は、蛍光顕微鏡によって得られる画像である。細胞に対して予め核染色(蛍光染色ともいう)を行い、核染色した細胞に励起光を照射し、核染色された細胞から発生する蛍光のうち、所要の波長の蛍光だけを透過するフィルタを用い、当該蛍光のみを取り出すことによって核染色画像を得ることができる。 A nuclear stain image is an image obtained by a fluorescence microscope. Cells are pre-stained with nuclear staining (also known as fluorescent staining), the nuclear-stained cells are irradiated with excitation light, and among the fluorescence emitted from the nuclear-stained cells, a filter that transmits only the fluorescence of the required wavelength is applied. A nuclear staining image can be obtained by extracting only the fluorescence.
メモリ54は、画像メモリであり、第1画像データ取得部52で取得した位相差画像の画像データ(第1画像データ)及び第2画像データ取得部53で取得した核染色画像の画像データ(第2画像データ)を記憶する。
The
図2は位相差画像及び核染色画像の一例を示す説明図である。図2Aは位相差画像であり、図2Bは核染色画像である。図2に示す位相差画像及び核染色画像は、同一の観察領域を同時刻に撮影したものである。位相差画像及び核染色画像の解像度は、800×600とすることができるが、これに限定されない。位相差画像では、細胞の存在、あるいは細胞の形状の概略を認識することができるが、1個の細胞であるのか、複数の細胞が纏まっているのかが正確に観察することができず、観察領域内の全ての細胞について、個々の細胞を識別可能に観察することが困難である。核染色画像では、細胞核の部分が背景に比べて高い輝度として表れ、細胞核の位置及び数を、位相差画像に比べて正確に観察することができる。なお、個々の細胞核が発する輝度は、均一ではなく細胞核によってばらつきがある。 FIG. 2 is an explanatory diagram showing an example of a phase contrast image and a stained nuclear image. FIG. 2A is a phase contrast image, and FIG. 2B is a nuclear staining image. The phase-contrast image and nuclear staining image shown in FIG. 2 were obtained by imaging the same observation region at the same time. The resolution of the phase contrast image and the nuclear staining image can be 800×600, but is not limited to this. In a phase-contrast image, the presence of cells or the outline of the shape of cells can be recognized. It is difficult to identifiably observe individual cells for all cells in the area. In the nuclear-stained image, the cell nuclei appear as brighter than the background, and the positions and numbers of the cell nuclei can be observed more accurately than in the phase-contrast image. Note that the brightness emitted by each cell nucleus is not uniform and varies depending on the cell nucleus.
処理部51は、ハードウエア又はソフトウエア、あるいは両方の組み合わせにより構成することができる。
The
検出モデル部511は、検出器としての機能を有し、例えば、複数のプロセッサ(CPU:Central Processing Unit)、複数のグラフィック処理ユニット(GPU:Graphics Processing Unit)、あるいはCPU及びGPUの組み合わせによって構成することができる。所要のプログラミング言語によって細胞を検出するための検出モデルが作成され、学習用データを用いて、作成した検出モデルによる検出精度が高くなるように検出モデルのパラメータ等の構成をチューニングすることにより、検出モデル部511の学習を行うことができる。
The
図3は本実施の形態の検出モデル部511の構成の第1例を模式的に示す説明図である。図3は、検出モデル部511をニューラルネットワークモデルで構成したものであるが、検出モデル部511の構成は、図3の例のような多層のニューラルネットワーク(深層学習)に限定されるものではなく、他の機械学習(例えば、SVM:サポートベクターマシン、Random Forest:ランダムフォレスト)のアルゴリズムを用いることもできる。
FIG. 3 is an explanatory diagram schematically showing a first example of the configuration of the
図3に示すように、検出モデル部511は、入力層、出力層及び複数の中間層から構成されている。なお、図3では、便宜上、2つ中間層を図示しているが、中間層の層数は2つに限定されず、3つ以上であってもよい。入力層のノード数はN(x1、x2、…、xN)であり、出力層のノード数は1(y1)である。
As shown in FIG. 3, the
入力層、出力層及び中間層には、1つ又は複数のノード(ニューロン)が存在し、各層のノードは、前後の層に存在するノードと一方向に所望の重みで結合されている。入力層のノードの数Nと同数の成分を有するベクトルが、学習済の検出モデル部511の入力データとして与えられる。
One or more nodes (neurons) exist in the input layer, the output layer, and the intermediate layer, and the nodes in each layer are unidirectionally connected with the nodes in the preceding and succeeding layers with desired weights. A vector having the same number of components as the number N of nodes in the input layer is given as input data to the learned
入力層の各ノードに与えられたデータは、最初の中間層に入力として与えられると、重み及び活性化関数を用いて中間層の出力が算出され、算出された値が次の中間層に与えられ、以下同様にして出力層の出力が求められるまで次々と後の層(下層)に伝達される。なお、ノードを結合する重みのすべては、学習処理部514の学習アルゴリズムによって計算される。
When the data given to each node of the input layer is given as input to the first hidden layer, the output of the hidden layer is calculated using the weight and activation function, and the calculated value is given to the next hidden layer. and is transmitted to subsequent layers (lower layers) in the same manner until the output of the output layer is obtained. Note that all weights for connecting nodes are calculated by the learning algorithm of the
出力層は、入力データ(x1、x2、…xN)に基づいて、一の画素の輝度値を出力する。画素の輝度範囲を0~255とすると、出力値は、0~255の任意の値(整数に限定されない)を取り得る。なお、輝度値0は黒(暗)であり、輝度値255は白(明)である。 The output layer outputs the luminance value of one pixel based on the input data (x1, x2, . . . xN). Assuming that the luminance range of pixels is 0-255, the output value can take any value from 0-255 (not limited to integers). A luminance value of 0 is black (dark), and a luminance value of 255 is white (bright).
次に、検出モデル部511の学習手順について説明する。
Next, a learning procedure of the
学習データ生成部515は、撮像して得られた、学習用細胞を含む位相差画像の画像データ、及び撮像して得られた、当該学習用細胞の関心領域を含む核染色画像の画像データに基づいて学習データを生成する。
The learning
図4は本実施の形態の検出モデル部511を学習させるための学習データの生成方法の第1例を示す説明図である。図4の学習データの生成方法は、図3に示す検出モデル部511の第1例に対応するものである。
FIG. 4 is an explanatory diagram showing a first example of a method of generating learning data for learning the
図4Aに示すように、学習データ生成部515は、観察領域を撮像した、学習用細胞の関心領域を含む核染色画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。
As shown in FIG. 4A , the learning
図4Bに示すように、学習データ生成部515は、核染色画像から所定の画素数で構成される画素ブロック(例えば、g×g、g=28など)を複数特定する。図4Bの例では、便宜上、4つの画素ブロックG1、G2、G3、G4を示す。実際には、1枚の核染色画像から所要数の画素ブロックを特定することができる。所要数は、例えば、1枚の核染色画像の全画素数に等しい数でもよく、画像処理負荷を軽減すべく、全画素数よりも少ない数でもよい。画素ブロックの特定は、核染色画像上の位置をランダムに選ぶことができるが、細胞核を含む画素ブロックだけでなく、細胞核を含まない画素ブロックを特定することができる。細胞核を含まない画素ブロックも特定することにより、細胞核が存在しないのに誤って細胞核が存在する如く誤検出を防止して細胞の検出精度を高めることができる。また、細胞が正細胞であるか死細胞であるかの区別をしなくてもよい。画素ブロックG1、G3は細胞核(発色箇所)を含み、画素ブロックG2、G4は細胞核を含んでいない。また、画素ブロックG1、G2、G3、G4の特徴量(図4Bの例では、画素値の一つである輝度値)を、それぞれ159、82、255、90とする。ここで、画素ブロックの画素の特徴量は、例えば、画素ブロックの中心に存在する画素の画素値の一つである輝度値とすることができるが、これに限定されない。他にも、画素ブロック内の画素値の平均値、画素値の中央値等、画素ブロックを代表する代表値を含めることができる。すなわち、代表値も画素値の一つである。
As shown in FIG. 4B, the learning
学習データ生成部515は、観察領域を撮像した、学習用細胞を含む位相差画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。なお、位相差画像と核染色画像とは、学習用細胞が含まれる同一の観察領域を同一時刻に撮像したものである。
The learning
学習データ生成部515は、核染色画像上で特定した画素ブロックに対応する位相差画像の画素ブロックに、核染色画像上で特定した画素ブロックの画素の特徴量を関連付けて学習データを生成する。より具体的には、学習データ生成部515は、位相差画像の画素ブロックに、核染色画像上で特定した画素ブロック内の所定画素(図4の例では、中心画素)の画素値の一つである輝度値を関連付けて学習データを生成する。画素値を学習用データ(教師データ)として用いるので、例えば、特徴ベクトルなどを算出して教師データとして用いる場合に比べて、適切な特徴ベクトルの設計が不要であり、特徴ベクトルを算出する場合に比べて、画素値をそのまま用いることができるので、処理が簡単になるとともに精度の高い細胞検出を可能とする。
The learning
図4Cに示すように、学習データ生成部515は、核染色画像上の画素ブロックG1、G2、G3、G4に対応する位相差画像の領域X1、X2、X3、X4(切り出し画像)を切り出す。そして、領域X1~X4に、画素ブロックG1~G4の輝度値を教師ラベルとして関連付けている。領域X1~X4は、それぞれg×gの画素で構成されるので、領域X1については、サンプルX1の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x11、x12、…、x1N)が生成され、教師ラベルは159となる。
As shown in FIG. 4C, the learning
領域X2については、サンプルX2の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x21、x22、…、x2N)が生成され、教師ラベルは82となる。領域X3については、サンプルX3の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x31、x32、…、x3N)が生成され、教師ラベルは255となる。また、領域X4については、サンプルX4の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x41、x42、…、x4N)が生成され、教師ラベルは90となる。 For the region X2, a vector (x21, x22, . For the region X3, a vector (x31, x32, . For the region X4, a vector (x41, x42, .
図5は本実施の形態の学習処理部514による学習の第1例を示す説明図である。学習処理部514は、学習データ生成部515が生成した学習データに基づいて検出モデル部511を学習させる。具体的には、学習処理部514は、サンプルX1の学習用入力データ(x11、x12、…、x1N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである159に近づくように学習を行う。
FIG. 5 is an explanatory diagram showing a first example of learning by the
また、学習処理部514は、サンプルX2の学習用入力データ(x21、x22、…、x2N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである82に近づくように学習を行う。また、学習処理部514は、サンプルX3の学習用入力データ(x31、x32、…、x3N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである255に近づくように学習を行う。また、学習処理部514は、サンプルX4の学習用入力データ(x41、x42、…、x4N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノードの出力値y1が教師データである90に近づくように学習を行う。
Further, the
図6は本実施の形態の処理部51の学習処理の手順の第1例を示すフローチャートである。以下では、便宜上、処理の主体を処理部51として説明する。処理部51は、観察領域を撮像した、学習用細胞を含む位相差画像の画像データを取得し(S11)、同一の観察領域を同時刻に撮像した、当該学習用細胞の関心領域を含む核染色画像の画像データを取得する(S12)。
FIG. 6 is a flow chart showing a first example of the procedure of the learning process of the
処理部51は、核染色画像からランダムに画素ブロックを複数特定し(S13)、特定した画素ブロックの中心画素の輝度値を記録する(S14)。処理部51は、位相差画像から画素ブロックに対応する位置の切り出し画像を抽出する(S15)。
The
処理部51は、抽出した切り出し画像の各画素の輝度値を学習用入力データとし、切り出し画像に対応する画素ブロックの中心画素の輝度値を教師ラベルとして学習データを生成する(S16)。処理部51は、生成した学習データに基づいて検出モデル部511を学習させる(S17)。
The
処理部51は、検出モデル部511の出力値の精度が許容範囲内であるか否かを判定し(S18)、許容範囲内でない場合(S18でNO)、ステップS11以降の処理を続ける。出力値の精度が許容範囲内である場合(S18でYES)、処理部51は、処理を終了する。
The
学習データを生成する場合、位相差画像及び核染色画像は、1枚に限定されず、複数枚の位相差画像及び核染色画像を用いることができる。例えば、細胞の活動に応じた状態を学習させるため、所定の時間経過の都度、位相差画像及び核染色画像を撮像することができる。例えば、15分経過の都度、位相差画像及び核染色画像を1枚撮像し、最終的に10枚程度の位相差画像及び核染色画像を取得すればよい。 When generating learning data, the number of phase-contrast images and nuclear-stained images is not limited to one, and a plurality of phase-contrast images and nuclear-stained images can be used. For example, a phase-contrast image and a nuclear-stained image can be captured each time a predetermined time has elapsed in order to learn the state according to cell activity. For example, one phase-contrast image and nuclear-stained image may be taken every 15 minutes, and finally about 10 phase-contrast images and nuclear-stained images may be acquired.
次に、学習済の検出モデル部511を用いて、細胞を検出する手順について説明する。
Next, a procedure for detecting cells using the learned
第1画像データ取得部52は、検出用の細胞(学習用ではない)を含む位相差画像を取得し、取得した位相差画像をメモリ54に記憶する。
The first image
入力データ生成部512は、メモリ54から位相差画像を取得し、取得した位相差画像から所定の画素数で構成される画素ブロックを複数特定する。入力データ生成部512は、特定した画素ブロックの各画素の輝度値に基づいて入力データを生成する。
The
図7は本実施の形態の入力データ生成部512による入力データの生成方法の第1例を示す説明図である。位相差画像の解像度をm×n(例えば、m=800、n=600など)とする。入力データ生成部512は、例えば、位相差画像の左上から水平方向に走査し、水平方向の走査が終了したら走査位置を垂直方向にずらすとともに再度左から右に向かって走査を繰り返し、最終的に右下まで走査して、位相差画像の全画素の画素数分の画素ブロック(g×g、g=28)を特定することにより、M個(M=m×n)の切り出し画像A1、A2、…、AMを切り出す。各切り出し画像は、N個(N=g×g)の画素で構成される。これにより、入力データは、それぞれがN個の成分を有するM個のベクトルで構成される。なお、切り出し画像の数は、位相差画像の全画素数に限定されるものではなく、位相差画像のうちの特定の領域を走査したときの画素数でもよく、切り出す画像を走査方向に沿って間引きしてもよい。
FIG. 7 is an explanatory diagram showing a first example of a method of generating input data by the input
図8は本実施の形態の検出モデル部511による検出処理の第1例を示す説明図である。入力層のそれぞれ入力ノードには、切り出し画像A1についての入力データ(a11、a12、a13、…a1N)が入力されると、出力層の出力ノードには出力値b1が出力される。また、切り出し画像A2についての入力データ(a21、a22、a23、…a2N)が入力されると、出力層の出力ノードには出力値b2が出力される。以下、同様にして、切り出し画像AMについての入力データ(aM1、aM2、aM3、…aMN)が入力されると、出力層の出力ノードには出力値bMが出力される。
FIG. 8 is an explanatory diagram showing a first example of detection processing by the
推定画像生成部513は、検出モデル部511の出力ノードから出力される出力値b1、b2、…、bMに基づいて、核染色画像を撮像することなく、核染色画像の推定画像を生成する。図7に示すように、位相差画像の解像度をm×nとすると、推定画像生成部513は、M(=m×n)個の出力値を、m×nの各画素に対応させることにより、m×nの推定核染色画像を生成する。
The estimated
出力部55は、検出モデル部511の出力ノードから出力される出力値b1、b2、…、bMを外部の装置などに出力することができる。
The
図9は本実施の形態の処理部51による検出処理の手順の第1例を示すフローチャートである。処理部51は、検出対象の細胞を含む位相差画像の画像データを取得し(S31)、取得した位相差画像を走査して切り出し画像を抽出する(S32)。処理部51は、抽出した切り出し画像の各画素の輝度値に基づいて、入力データを生成する(S33)。
FIG. 9 is a flow chart showing a first example of the procedure of detection processing by the
処理部51は、生成した入力データを検出モデル部511の入力ノードに入力し(S34)、切り出し画像毎に検出モデル部511が出力した出力値を推定核染色画像の各画素の輝度値とし(S35)、推定核染色画像を生成する(S36)。
The
処理部51は、位相差画像と、推定核染色画像とを対比して表示し(S37)、処理を終了する。
The
図10は本実施の形態の処理部51により生成された推定核染色画像の一例を示す説明図である。図10Aは、検出対象の細胞を含む位相差画像であり、図10Bは、処理部51により生成された核染色画像の推定画像(推定核染色画像)であり、図10Cは、位相差画像に対応する核染色画像であり、位相差画像と同一の観察領域を同時刻に撮像したものである。図10に示すように、本実施の形態によれば、細胞に核染色を行って核染色画像を取得することなく、位相差画像を取得するだけで、核染色画像の推定画像を精度良く得ることができる。
FIG. 10 is an explanatory diagram showing an example of an estimated stained nuclear image generated by the
図10に示す推定核染色画像に係る画像データは、細胞(細胞核)が検出された画像データであって、撮像して得られる細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを含む構造を有し、当該推定画像は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づく入力データを、細胞を検出する検出モデル部511に入力して検出モデル部511が出力する出力値に基づいて生成され、検出モデル部511は、撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、当該学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習されている。
The image data related to the estimated stained nuclear image shown in FIG. 10 is image data in which a cell (cell nucleus) is detected, and is estimated image data related to the estimated image of the stained image including the region of interest of the cell obtained by imaging. and the estimated image is input data based on first image data related to at least one of a phase-contrast image or a bright-field image containing cells obtained by imaging a detection model that detects cells It is generated based on the output value input to the
図11は位相差画像と推定核染色画像とを合成した合成画像の一例を示す説明図である。表示部56は、推定画像生成部513が生成した推定核染色画像と、取得された位相差画像とを対比させて表示装置60の表示画面に表示させることができる。位相差画像(図11A)と、推定核染色画像(図11B)とを対比させるとは、図示しないが位相差画像と推定核染色画像とを並列させて表示するだけでなく、図11Cに示すように、位相差画像の左上の位置及び右下の位置それぞれが、推定核染色画像の左上の位置及び右下の位置に一致するように、位相差画像と推定核染色画像とを重ねることや、推定核染色画像の情報を基に位相差画像を所定の操作で編集することを含む。これにより、位相差画像上で認識される細胞の位置が、推定核染色画像上で認識される細胞核の位置によって確定するので、核染色画像を取得することなく、一つ一つの細胞の位置、及び細胞の数を正確に認識しつつ、位相差画像を観察することが可能となる。特に、位相差画像だけでは、一つの細胞のように認識される場合に、実際には、例えば、二つの細胞が密着した状態であることを把握して観察できる。
FIG. 11 is an explanatory diagram showing an example of a synthesized image obtained by synthesizing a phase contrast image and an estimated nuclear staining image. The
本実施の形態によれば、核染色画像を実際に取得することなく、細胞核が鮮明に映る推定核染色画像を得ることができるので、画像解析に適した画像を得ることができる。また、核染色撮影のための作業やコストが不要となり、細胞への侵襲がなく、細胞の本来の挙動を観察することが可能となる。 According to the present embodiment, it is possible to obtain an estimated nuclear staining image in which cell nuclei are clearly captured without actually obtaining a nuclear staining image, so that an image suitable for image analysis can be obtained. In addition, the operation and cost for nuclear stain imaging are not required, and the original behavior of cells can be observed without invading the cells.
本実施の形態によれば、核染色画像に基づいて教師データ(学習用データ)を自動的に生成するので、例えば、検出したい領域(細胞領域)のマスク画像(教師データ)を手動で作成する必要がなく、教師データの作成者の主観が入り込む余地がなく、ばらつき、あるいは主観によるブレのない学習データを生成することができる。 According to the present embodiment, since teacher data (learning data) is automatically generated based on nuclear staining images, for example, a mask image (teacher data) of a region (cell region) to be detected is manually created. There is no room for the subjectivity of the creator of the teacher data, and it is possible to generate learning data free from variations or subjective blurring.
本実施の形態によれば、一度学習が完了すれば、細胞の核染色を行わずに核染色画像と同等の画像が得られるため、核染色による様々なリスク(例えば、細胞へのダメージ等)がなくなる。 According to the present embodiment, once learning is completed, an image equivalent to a nuclear staining image can be obtained without performing nuclear staining of cells. disappears.
本実施の形態によれば、核染色画像に基づく学習データによって学習した検出モデル部に、位相差画像の画像データを入力して細胞を検出するので、位相差画像のみを用いる場合に必要となる多様で適切なフィルタモデルの設計が不要となる。 According to the present embodiment, cells are detected by inputting the image data of the phase contrast image into the detection model unit trained by the learning data based on the nuclear staining image. It eliminates the need to design diverse and appropriate filter models.
本実施の形態によれば、光学系モデルに基づいて各画素が細胞か否かを推定する必要がないので、光学系モデルの多くの未知のパラメータを試行錯誤で決定する必要がない。 According to this embodiment, it is not necessary to estimate whether each pixel is a cell or not based on the optical system model, so there is no need to determine many unknown parameters of the optical system model by trial and error.
本実施の形態によれば、核染色画像から複数の画素ブロックを特定する場合、細胞核を含む画素ブロックだけでなく、細胞核を含まない画素ブロックも特定して、学習データを生成するので、細胞核が存在しないのに誤って細胞核が存在する如く誤検出を防止して細胞の検出精度を高めることができる。 According to the present embodiment, when identifying a plurality of pixel blocks from a stained nuclear image, not only pixel blocks containing cell nuclei but also pixel blocks not containing cell nuclei are identified to generate learning data. It is possible to prevent erroneous detection such that a cell nucleus is erroneously present even though it does not exist, thereby increasing the accuracy of cell detection.
図12は推定核染色画像と合成画像の他の例を示す説明図である。なお、図12では、便宜上、一つの細胞(細胞核)だけを図示している。第1画像データ取得部52は、時系列に撮像した、検出対象の細胞を含む複数の位相差画像を取得する。例えば、10分、20分経過の都度、観察領域を撮像した1枚の位相差画像を取得することができる。入力データ生成部512は、複数の位相差画像それぞれから所定の画素数(例えば、g×g)で構成される切り出し画像を複数抽出(特定)する。入力データ生成部512は、複数の位相差画像毎に、複数の切り出し画像の各画素の輝度値に基づいて、複数の組の入力データを生成する。入力データの複数の組は、複数の位相差画像に対応する。
FIG. 12 is an explanatory diagram showing another example of the estimated stained nuclear image and the combined image. Note that FIG. 12 shows only one cell (cell nucleus) for convenience. The first image
推定画像生成部513は、1枚の位相差画像に基づいて1枚の推定核染色画像を生成するので、複数の位相差画像に対して、位相差画像の枚数と同数の時系列の推定核染色画像を生成することができる。
Since the estimated
表示部56は、複数の組の入力データが入力された検出モデル部511が出力する出力値に基づいて、細胞(細胞核)の推定移動軌跡を表示することができる。すなわち、図12Aの推定核染色画像では、細胞核の過去の推定位置から現在(直近)の推定位置までを推定移動軌跡として表している。また、図12Bの合成画像では、細胞及び該細胞内の細胞核の両方の過去の推定位置から現在(直近)の推定位置までを推定移動軌跡として表している。これにより、細胞の動的な挙動を正確に把握することができる。
The
上述の例では、検出装置50は、一つの検出モデル部511を備える構成であったが、これに限定されるものではなく、複数の検出モデル部を備える構成でもよい。この場合、例えば、検出対象の細胞の関心領域の種別などに応じて、種別毎に検出モデルが異なる複数の検出モデル部を備えるようにすることができる。これにより、細胞の関心領域の種別に応じて最適な検出モデル部を用いることができ、細胞の検出精度をさらに高めることができる。
In the above example, the
また、検出モデル部511は、再学習可能に構成することができる。学習処理部514は、検出モデル部511が有する複数のパラメータ(入力層と中間層との間の重み、中間層と出力層との間の重み、中間層間の重みなど)を更新して、検出モデル部511を再学習可能にすることができる。これにより、細胞の検出精度を維持することができる。
Also, the
次に、検出モデル部511の他の構成について説明する。
Next, another configuration of the
図13は本実施の形態の検出モデル部511の構成の第2例を模式的に示す説明図である。図3に例示した第1例との相違点は、出力層のノード数が2(y1、y2)となっている。入力層の入力ノードの数、中間層の構成は第1例と同様である。出力層は、入力データ(x1、x2、…xN)に基づいて、ノード0は、輝度値が0(黒)である確率を出力し、ノード1は、輝度値が255(白)である確率を出力する。出力値は、0~1の任意の値(整数に限定されない)を取り得る。
FIG. 13 is an explanatory diagram schematically showing a second example of the configuration of
図14は本実施の形態の検出モデル部511を学習させるための学習データの生成方法の第2例を示す説明図である。図14の学習データの生成方法は、図13に示す検出モデル部511の第2例に対応するものである。
FIG. 14 is an explanatory diagram showing a second example of a method of generating learning data for learning the
図14Aに示すように、学習データ生成部515は、観察領域を撮像した、学習用細胞の関心領域を含む核染色画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。
As shown in FIG. 14A , the learning
図14Bに示すように、学習データ生成部515は、核染色画像に対して二値化処理を行って二値化画像を生成する。二値化することにより、例えば、発色位置を前景とすることができる。また、二値化することにより、細胞の関心領域と関心領域以外の領域との区別が明瞭になる。例えば、二値化することにより、細胞核に相当する箇所と、細胞核に相当しない箇所との区別が明瞭になり、検出モデル部511を学習させやすくすることができる。
As shown in FIG. 14B, the learning
図14Cに示すように、学習データ生成部515は、核染色画像から所定の画素数で構成される画素ブロック(例えば、g×g、g=28など)を複数特定する。図14Cの例では、便宜上、4つの画素ブロックG6、G7、G8、G9を示す。実際には、1枚の核染色画像から所要数の画素ブロックを特定することができる。所要数は、例えば、1枚の核染色画像の全画素数に等しい数でもよく、画像処理負荷を軽減すべく、全画素数よりも少ない数でもよい。画素ブロックの特定は、核染色画像上の位置をランダムに選ぶことができるが、細胞核を含む画素ブロックだけでなく、細胞核を含まない画素ブロックを特定することができる。細胞核を含まない画素ブロックも特定することにより、細胞核が存在しないのに誤って細胞核が存在する如く誤検出を防止して細胞の検出精度を高めることができる。なお、細胞が正細胞であるか死細胞であるかの区別をしなくてもよい。画素ブロックG6、G8は細胞核(発色箇所)を含み、画素ブロックG7、G9は細胞核を含んでいない。また、画素ブロックG6、G7、G8、G9の特徴量を二値とし、それぞれ1、0、1、0とする。二値は画素の画素値である。二値は、例えば、画素ブロックの中心に存在する画素の二値とすることができるが、これに限定されない。
As shown in FIG. 14C, the learning
学習データ生成部515は、観察領域を撮像した、学習用細胞を含む位相差画像(例えば、解像度は800×600)の画像データをメモリ54から取得する。なお、位相差画像と核染色画像とは、学習用細胞の同一の観察領域を同一時刻に撮像したものである。
The learning
学習データ生成部515は、核染色画像上で特定した画素ブロックに対応する位相差画像の画素ブロックに、核染色画像上で特定した画素ブロックの二値化された所定画素の画素値である二値(0又は1)を関連付けて学習データを生成する。より具体的には、学習データ生成部515は、位相差画像の画素ブロックに、核染色画像上で特定した画素ブロック内の中心画素の画素値である二値を関連付けて学習データを生成する。画素値である二値を学習用データ(教師データ)として用いるので、例えば、特徴ベクトルなどを算出して教師データとして用いる場合に比べて、適切な特徴ベクトルの設計が不要であり、特徴ベクトルを算出する場合に比べて、画素値をそのまま用いることができるので、処理が簡単になるとともに精度の高い細胞検出を可能とする。
The learning
図14Dに示すように、学習データ生成部515は、核染色画像上の画素ブロックG6、G7、G8、G9に対応する位相差画像の領域X6、X7、X8、X9(切り出し画像)を切り出す。そして、領域X6~X9に、画素ブロックG6~G9の二値を教師ラベルとして関連付けている。領域X6~X9は、それぞれg×gの画素で構成されるので、領域X6については、サンプルX1の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x61、x62、…、x6N)が生成され、教師ラベルは1となる。
As shown in FIG. 14D, the learning
領域X7については、サンプルX7の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x71、x72、…、x7N)が生成され、教師ラベルは0となる。領域X8については、サンプルX8の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x81、x82、…、x8N)が生成され、教師ラベルは1となる。また、領域X9については、サンプルX9の学習用入力データとして、N(=g×g)個の成分を有するベクトル(x91、x92、…、x9N)が生成され、教師ラベルは0となる。 For the region X7, a vector (x71, x72, . For the region X8, a vector (x81, x82, . For the region X9, a vector (x91, x92, .
図15は本実施の形態の学習処理部514による学習の第2例を示す説明図である。学習処理部514は、学習データ生成部515が生成した学習データに基づいて検出モデル部511を学習させる。具体的には、学習処理部514は、教師ラベルが1のサンプルX6の学習用入力データ(x61、x62、…、x6N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノード1の出力値y2が1に近づくよう、かつ出力ノード0の出力値y1が0に近づくように学習を行う。
FIG. 15 is an explanatory diagram showing a second example of learning by the
また、図示していないが、教師ラベルが0のサンプルX7の学習用入力データ(x71、x72、…、x7N)を、入力層のそれぞれの入力ノードに入力し、出力層の出力ノード0の出力値y1が1に近づくよう、かつ出力ノード1の出力値y2が0に近づくように学習を行う。サンプルX8、X9の学習用入力データについても同様である。
Also, although not shown, learning input data (x71, x72, . Learning is performed so that the value y1 approaches one and the output value y2 of the
すなわち、教師ラベル1の入力データを入力した場合には、ノード0が0に、かつノード1が1に近づくように学習を行い、教師ラベル0の入力データを入力した場合には、ノード0が1に、かつノード1が0に近づくように学習を行う。
That is, when input data of
図16は本実施の形態の処理部51の学習処理の手順の第2例を示すフローチャートである。以下では、便宜上、処理の主体を処理部51として説明する。処理部51は、観察領域を撮像した、学習用細胞を含む位相差画像の画像データを取得し(S51)、同一の観察領域を同時刻に撮像した、当該学習用細胞の関心領域を含む核染色画像の画像データを取得する(S52)。
FIG. 16 is a flow chart showing a second example of the procedure of the learning process of the
処理部51は、核染色画像を二値化し(S53)、二値化した核染色画像からランダムに画素ブロックを複数特定し(S54)、特定した画素ブロックの中心画素の二値を記録する(S55)。処理部51は、位相差画像から画素ブロックに対応する位置の切り出し画像を抽出する(S56)。
The
処理部51は、抽出した切り出し画像の各画素の輝度値を学習用入力データとし、切り出し画像に対応する画素ブロックの中心画素の二値を教師ラベルとして学習データを生成する(S57)。処理部51は、生成した学習データに基づいて検出モデル部511を学習させる(S58)。
The
処理部51は、検出モデル部511の出力値の精度が許容範囲内であるか否かを判定し(S59)、許容範囲内でない場合(S59でNO)、ステップS51以降の処理を続ける。出力値の精度が許容範囲内である場合(S59でYES)、処理部51は、処理を終了する。
The
第2例における入力データの生成方法は、図7に例示した第1例と同様であり、位相差画像から、M個(M=m×n)の切り出し画像A1、A2、…、AMを切り出す。 The method of generating input data in the second example is the same as in the first example illustrated in FIG. 7, and M (M=m×n) clipped images A1, A2, . .
図17は本実施の形態の検出モデル部511による検出処理の第2例を示す説明図である。入力層のそれぞれ入力ノードには、切り出し画像A1についての入力データ(a11、a12、a13、…a1N)が入力されると、出力層の出力ノードには出力データB1が出力される。出力データB1は、出力ノード0の確率が0.4であり、出力ノード1の確率が0.1である。出力ノード0の確率が出力ノード1の確率以上である場合、出力値を0とする。また、出力ノード0の確率が出力ノード1の確率未満である場合、出力値を1とする。出力データB1については、出力ノード0の確率が出力ノード1の確率以上であるので、出力値b1は0となる。
FIG. 17 is an explanatory diagram showing a second example of detection processing by the
切り出し画像A2についての入力データ(a21、a22、a23、…a2N)が入力されると、出力層の出力ノードには出力データB2が出力される。出力データB2は、出力ノード0の確率が0.3であり、出力ノード1の確率が0.8である。出力データB2については、出力ノード0の確率が出力ノード1の確率未満であるので、出力値b2は1となる。
When the input data (a21, a22, a23, . . . a2N) for the clipped image A2 is input, the output data B2 is output to the output node of the output layer. Output data B2 has a probability of
以下、同様にして、切り出し画像AMについての入力データ(aM1、aM2、aM3、…aMN)が入力されると、出力層の出力ノードには出力データBMが出力される。出力データBMは、出力ノード0の確率が0.5であり、出力ノード1の確率が0.2である。出力データBMについては、出力ノード0の確率が出力ノード1の確率以上であるので、出力値bMは0となる。
Similarly, when the input data (aM1, aM2, aM3, . . . aMN) for the clipped image AM are input, the output data BM are output to the output nodes of the output layer. The output data BM has a probability of
推定画像生成部513は、検出モデル部511の出力ノードから出力される出力値b1、b2、…、bMに基づいて、核染色画像を撮像することなく、核染色画像の推定画像を生成する。図7に示すように、位相差画像の解像度をm×nとすると、推定画像生成部513は、M(=m×n)個の出力値を、m×nの各画素に対応させることにより、m×nの推定核染色画像を生成する。
The estimated
図18は本実施の形態の処理部51による検出処理の手順の第2例を示すフローチャートである。処理部51は、検出対象の細胞を含む位相差画像の画像データを取得し(S71)、取得した位相差画像を走査して切り出し画像を抽出する(S72)。処理部51は、抽出した切り出し画像の各画素の輝度値に基づいて、入力データを生成する(S73)。
FIG. 18 is a flow chart showing a second example of the procedure of detection processing by the
処理部51は、生成した入力データを検出モデル部511の入力ノードに入力し(S74)、切り出し画像毎に検出モデル部511が出力したノード0の値(確率)≧ノード1の値(確率)の場合、出力値を0(黒)とし、ノード0の値(確率)<ノード1の値(確率)の場合、出力値を1(白)として、推定核染色画像の画素値(輝度値)を決定する(S75)。
The
処理部51は、推定核染色画像を生成し(S76)、位相差画像と、推定核染色画像とを対比して表示し(S77)、処理を終了する。
The
なお、本実施の形態の処理部51、表示部56は、CPU、GPU、ROM、RAM、記録媒体読取部などで構成することができる。記録媒体に記録されたコンピュータプログラムを記録媒体読取部で読み取ってRAMに格納することができる。RAMに格納されたコンピュータプログラムをCPU、GPUで実行させることにより、処理部51、表示部56で行う処理を実行することができる。なお、CPUは、プロセッサ、プロセッサデバイス、プロセッシングユニットなどの総称とし、1又は複数で構成することができる。また、コンピュータプログラムは、記録媒体読取部で読み取る構成に代えて、インターネットなどのネットワークを介してダウンロードすることもできる。
Note that the
前述の図14、図16等に示す第2例では、核染色画像に対して二値化処理を行う構成であったが、以下では、二値化処理の前に行う前処理について説明する。 In the second example shown in FIGS. 14, 16, etc., the configuration is such that binarization processing is performed on the stained nuclear image. In the following, preprocessing performed before binarization processing will be described.
図19は核染色画像を異なるしきい値で二値化して得られる二値化後の核染色画像の例を示す説明図である。図19Aは、撮像して得られた核染色画像(二値化する前の元画像)を示す。細胞に対して核染色を行うと、細胞の関心領域(例えば、細胞核)は必ずしも同じ強度で発光しないので、図19Aに示すように、細胞毎の発色の違い、あるいは画像全体の明るさのムラが存在する。 FIG. 19 is an explanatory diagram showing an example of a stained nuclear image after binarization obtained by binarizing a stained nuclear image with different threshold values. FIG. 19A shows a stained nuclear image (original image before binarization) obtained by imaging. When a cell is subjected to nuclear staining, the region of interest of the cell (for example, the cell nucleus) does not necessarily emit light with the same intensity. Therefore, as shown in FIG. exists.
図19Bに示すように、しきい値:140で二値化すると、画像中の細胞ではない領域の輝度が比較的高い画素が、あたかも発色位置として前景となり、細胞でない箇所が誤って細胞として扱われることになる。 As shown in FIG. 19B, when binarization is performed with a threshold of 140, pixels with relatively high luminance in non-cell regions in the image appear as the foreground as coloring positions, and non-cell regions are erroneously treated as cells. will be taken.
また、図19Cに示すように、しきい値:150で二値化すると、画像中の細胞ではない領域が誤って細胞として扱われることは多少抑制することができるものの、弱い強度で発色している細胞核が除去され、細胞核を検出することができない場合が生じる。 In addition, as shown in FIG. 19C, binarization with a threshold value of 150 can somewhat suppress areas that are not cells in the image from being erroneously treated as cells, but the color develops at a weak intensity. In some cases, the cell nucleus is removed and the cell nucleus cannot be detected.
また、図19Dに示すように、しきい値:160で二値化すると、画像中の細胞ではない領域が誤って細胞として扱われることは防止することができるものの、若干強い強度で発色している細胞核であっても除去される場合が生じる。このように、どのようなしきい値を用いたとしても、全ての細胞核を正確に検出することができない場合がある。 Further, as shown in FIG. 19D, binarization with a threshold value of 160 can prevent areas that are not cells in the image from being erroneously treated as cells, but the color develops with a slightly strong intensity. Even cell nuclei that are present may be removed. Thus, it may not be possible to accurately detect all cell nuclei no matter what threshold is used.
図20は本実施の形態の処理部51による二値化処理の前処理の手順の一例を示すフローチャートである。なお、図20に示す処理は、図16に示したステップS52とステップS53との間に追加される処理を含む。
FIG. 20 is a flow chart showing an example of a pre-processing procedure for binarization processing by the
処理部51は、核染色画像の画像データを取得する(S101)。処理部51は、核染色画像の注目画素の周辺画素の輝度値が注目画素の輝度値よりも小さい画素の数を注目画素の値として中間画像を生成する(S102)。注目画素は、核染色画像の左上から水平方向に走査し、水平方向の走査が終了したら走査位置を垂直方向にずらすとともに再度左から右に向かって走査を繰り返し、最終的に右下まで走査する。注目画素の周辺画素は、例えば、注目画素を含む、21×21画素とすることができるが、周辺画素の数はこれに限定されない。
The
生成された中間画像では、画素値が大きい画素は、核染色画像の注目画素の周囲の輝度が低いことを表し、画素値が小さい画素は、核染色画像の注目画素の周囲の輝度が高いことを表している。すなわち、中間画像の画素値が小さい画素は、輝度値の相対値が高い画素を含み、発光強度が周囲よりも相対的に高い細胞核に対応すると言える。 In the generated intermediate image, pixels with large pixel values represent low brightness around the pixel of interest in the stained nuclear image, and pixels with small pixel values represent high brightness around the pixel of interest in the stained nuclear image. represents. That is, it can be said that pixels with small pixel values in the intermediate image include pixels with high relative luminance values and correspond to cell nuclei with relatively higher emission intensity than surroundings.
処理部51は、中間画像をフーリエ変換して周波数スペクトルを算出し(S103)、低域通過フィルタを用いて高周波成分を除去する(S104)。これにより、細かい模様の箇所、あるいは輝度値が急激に変化するエッジの箇所などを除去することができ、核染色画像において、細胞核での輝度値の変化と異なる変化を示す箇所を除去することができる。
The
処理部51は、逆フーリエ変換により前処理済の核染色画像を生成し(S105)、核染色画像を二値化し(S106)、処理を終了する。なお、ステップS105、S106で言及する核染色画像は、厳密には、核染色画像に対応する中間画像であるが、本明細書では、便宜上、核染色画像として説明する。
The
図21は本実施の形態の処理部51による二値化処理の前処理での画像の例を示す説明図である。図21Aは、元画像である核染色画像を示す。図21Bは、注目画素の周辺画素の範囲(例えば、21×21画素)内で注目画素よりも輝度値の低い画素数を注目画素の値とした中間画像を示す。図21Cはフーリエ変換後の周波数スペクトルを示す。図21Cでは、中心付近が低周波成分であり、中心から離れるに従って高周波成分となる。
FIG. 21 is an explanatory diagram showing an example of an image in preprocessing for binarization processing by the
図21Dは、低域通過フィルタによって高周波成分を除去した周波数スペクトルを示す。図21Dの例では、中心付近の円形状以外が、高周波成分として除去されている。図21Eは逆フーリエ変換後の中間画像を示す。図21Fは二値化後の画像を示す。図21Aと図21Fとを比較すると、図21Aにおいて、発光強度が異なる(輝度値が異なる)細胞核が前景として表れていることが分かる。 FIG. 21D shows a frequency spectrum with high frequency components removed by a low-pass filter. In the example of FIG. 21D, areas other than the circular shape near the center are removed as high frequency components. FIG. 21E shows the intermediate image after the inverse Fourier transform. FIG. 21F shows the image after binarization. Comparing FIG. 21A and FIG. 21F, it can be seen that in FIG. 21A, cell nuclei with different emission intensities (different luminance values) appear as the foreground.
上述のように、処理部51は、第2画像を取得する。処理部51は、取得した第2画像の注目画素の周辺画素(例えば、注目画素を含む21×21画素)の輝度値と注目画素の輝度値を比較し、注目画素よりも輝度値が小さい画素の画素数を算出し、算出した画素数を注目画素の画素値とすることにより中間画像を生成する。処理部51は、中間画像をフーリエ変換し、フーリエ変換後の周波数スペクトルにおいて高周波成分を除去する。処理部51は、高周波成分が除去された周波数スペクトルを逆フーリエ変換して中間画像(核染色画像)を生成する。処理部51は、生成した中間画像を二値化する。
As described above, the
なお、二値化画像を得る他の方法としては、学習データ生成部515は、例えば、細胞がいない明るさのムラのみの背景画像との背景差分法(背景画像を得る方法として、細胞がいない状態を撮影する、タイムラプス画像から時系列方向に中央値を取った画像を求める等が考えられる)、あるいは、適応的二値化処理などを用いて二値化画像を生成することができる。適応的二値化処理は、二値化するための閾値を固定せず、複数の画素で構成される領域ごとに局所的に閾値を設定する方法である。例えば、ある領域内の画素の画素値の平均値を当該領域の閾値として設定する。
As another method for obtaining a binarized image, the learning
図22は本実施の形態の検出装置50の構成の他の例を示すブロック図である。図1に例示した構成との相違点は、図22の例では、学習処理部514、学習データ生成部515、第2画像データ取得部53を具備しない。すなわち、図22に示す検出装置50においては、検出モデル部511は、すでに学習済であり、さらなる学習を必要としない場合には、学習処理部514、学習データ生成部515、第2画像データ取得部53は必須の構成ではない。なお、図22に例示する検出装置50において、他の箇所は図1の構成と同様であるので説明は省略する。
FIG. 22 is a block diagram showing another example of the configuration of the
図23は本実施の形態の顕微鏡100の構成の一例を示すブロック図である。以下では、本実施の形態の撮像装置の一例として、顕微鏡100について説明する。顕微鏡100は、図1又は図22に例示した検出装置50を備える。なお、検出装置50は、顕微鏡100に組み込まれる構成に限定されない。
FIG. 23 is a block diagram showing an example of the configuration of the
顕微鏡100は、検出装置50の他に、位相差画像を撮像する際に白色色を出射する白色光源11、励起光によって蛍光を発生する核染色剤が付与された細胞Cが収容されたウェルプレート10、対物レンズ13、蛍光励起用光源12、ウェルプレート10の下方に配置された蛍光用ミラーユニット14、撮像素子15、撮像素子15が出力するアナログ値をデジタル値に変換するADコンバータ(A/D)16、CPU20、メモリ23、ユーザが顕微鏡100を操作するための操作部22、ウェルプレート10に対して蛍光励起用光源12、対物レンズ13、蛍光用ミラーユニット14及び撮像素子15などを水平方向に移動するための駆動制御部21などを備える。
The
位相差画像を撮像する場合、白色光源11からの白色光は、ウェルプレート10の上方から下方に向かって照射され、細胞Cを透過する光(回折光)と、細胞Cを透過しない光(直接光)との位相差によって、細胞の形状情報を明暗のコントラストとして撮像素子15で得ることができる。なお、顕微鏡100は、位相差画像に代えて、あるいは位相差画像とともに、明視野画像を撮像することもできる。
When capturing a phase-contrast image, the white light from the
核染色画像を撮像する場合、蛍光励起用光源12から出射される励起光は、蛍光用ミラーユニット14によりウェルプレート10に向かって反射され、対物レンズ13を介して細胞Cに入射する。入射した励起光によって、細胞Cから蛍光が発せられる。細胞Cから発せられた蛍光は、対物レンズ13及び蛍光用ミラーユニット14を透過して撮像素子15に入射し、核染色画像を得ることができる。
When capturing a stained nuclear image, the excitation light emitted from the fluorescence
位相差画像の撮像と核染色画像の撮像との切り替えは、CPU20の制御の下、同一箇所(観察領域)を同時刻に行うことができる。また、操作部22からの操作に応じて、例えば、撮影箇所、撮影タイミングを設定して自動で撮影することもできる。
Under the control of the
図24は本実施の形態の検出システムの構成の一例を示す模式図である。検出システムは、例えば、顕微鏡100、ユーザが使用する端末装置200、アプリケーション又はデータベースなどを提供するサーバ300などを備えることができる。端末装置200には、画像を表示することができる表示装置60が接続されている。なお、表示装置60を端末装置200に組み込むこともできる。図24に示す検出システムにおいて、本実施の形態の検出装置50は、顕微鏡100、端末装置200及びサーバ300のいずれか一つに組み込むことができる。前述の図23の例では、検出装置50を顕微鏡100に組み込んだ例を説明した。
FIG. 24 is a schematic diagram showing an example of the configuration of the detection system of this embodiment. The detection system may comprise, for example, a
顕微鏡100と端末装置200とは、例えば、通信線を介して接続することができる。また、端末装置200とサーバ300とは、インターネットなどの通信ネットワーク1を介して接続することができる。
The
サーバ300に検出装置50を組み込んだ場合、サーバ300は、細胞を検出する検出モデル部511、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する取得部、取得した画像データを検出モデル部511に入力し、細胞を染色することなく、細胞の関心領域を含む推定核染色画像に係る推定画像データを出力する出力部などを備える。
When the
上述の実施の形態では、第2方法によって得られた第2画像の例として、核染色画像について説明した。核染色画像は、細胞核の染色だけでなく、細胞内の小器官を認識できる画像も含まれる。また、第2画像としては、染色剤などを用いた核染色画像などの蛍光イメージングに限定されるものではなく、例えば、造影剤などを用いたRI(放射性同位元素)イメージングによる手法で得られた画像も含まれる。 In the above embodiment, the stained nuclear image has been described as an example of the second image obtained by the second method. The nuclear staining image includes not only the staining of the cell nucleus, but also an image that allows recognition of intracellular organelles. In addition, the second image is not limited to fluorescent imaging such as a nuclear staining image using a staining agent, for example, RI (radioisotope) imaging using a contrast agent. Images are also included.
次に、マウスの表皮細胞の提供方法について説明する。なお、提供する細胞として、以下では、マウスの表皮細胞について説明するが、提供する細胞は、マウスの表皮細胞に限定されるものではない。 Next, a method for providing mouse epidermal cells will be described. As the cells to be provided, mouse epidermal cells are described below, but the cells to be provided are not limited to mouse epidermal cells.
図25は本実施の形態のマウスの表皮細胞の提供方法の一例を示す模式図である。図25に示すように、通信ネットワークを介して、配信サーバ310、提供サーバ320、ユーザが使用する端末装置201、タブレット端末202などが接続されている。なお、タブレット端末202は、スマートフォンでもよい。
FIG. 25 is a schematic diagram showing an example of a method for providing mouse epidermal cells according to the present embodiment. As shown in FIG. 25, a
配信サーバ310の送信部311は、本実施の形態のコンピュータプログラムを特定のユーザの端末装置201に配信する。端末装置201は、配信されたコンピュータプログラムをインストールすることができ、これによって、端末装置201は、本実施の形態の検出装置50が組み込まれた構成となる。特定のユーザは、例えば、本実施の形態のコンピュータプログラムを用いて細胞の解析を行う企業、研究機関、医療機関などのユーザであり、予め登録されているユーザとすることができる。
ユーザは、タブレット端末202から、提供サーバ320に対して、マウスの表皮細胞の提供を要求する。当該要求には、ユーザの認証のためのID、パスワードなどを含めることができる。
The user requests the
提供サーバ320の受信部321は、ユーザからの要求を受信すると、認証部322は、ユーザが正規のユーザであるか否かの認証処理を行う。認証処理の結果、正規のユーザからの要求である場合、情報生成部323は、当該ユーザにマウスの表皮細胞を提供するための提供情報を生成する。マウスの表皮細胞を提供するための提供情報は、例えば、マウスの表皮細胞を輸送するための宛先情報などを含む。
When the
これにより、本実施の形態のコンピュータプログラムが配信された特定のユーザに対して、マウスの表皮細胞を間違いなく提供することができる。また、学習に使用した細胞と同じ培養環境で培養した細胞をコンピュータプログラムと一緒に提供することにより、当該コンピュータプログラムによる細胞の検出精度を担保することができる。 As a result, mouse epidermal cells can be provided without fail to specific users to whom the computer program of the present embodiment has been distributed. In addition, by providing cells cultured in the same culture environment as the cells used for learning together with a computer program, the accuracy of cell detection by the computer program can be ensured.
なお、配信サーバ310と提供サーバ320とは、統合して一つのサーバ(例えば、提供サーバ320)で構成することもできる。
Note that the
図26は本実施の形態のマウスの表皮細胞の提供方法の処理手順の一例を示すフローチャートである。以下では、便宜上、処理の主体を提供サーバ320として説明する。提供サーバ320は、特定のユーザに本実施の形態のプログラム(コンピュータプログラム)を配信する(S91)。提供サーバ320は、ユーザからマウスの表皮細胞の提供要求があるか否かを判定し(S92)、要求がない場合(S92でNO)、ステップS92の処理を続ける。
FIG. 26 is a flow chart showing an example of the procedure of the method for providing mouse epidermal cells according to the present embodiment. For the sake of convenience, the following description assumes that the main body of processing is the providing
要求があった場合(S92でYES)、提供サーバ320は、ユーザの認証処理を行い(S93)、正規のユーザであるか否かを判定する(S94)。正規のユーザである場合(S94でYES)、提供サーバ320は、当該ユーザにマウスの表皮細胞を提供するための提供情報を生成し(S95)、処理を終了する。正規のユーザではない場合(S94でNO)、提供サーバ320は、処理を終了する。
If there is a request (YES in S92), the providing
本実施の形態に係るコンピュータプログラムは、コンピュータに、検体を検出させるためのコンピュータプログラムであって、コンピュータに、第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する処理と、前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する処理と、前記第1画像データ及び第2画像データに基づいて学習データを生成する処理と、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる処理とを実行させる。 A computer program according to the present embodiment is a computer program for causing a computer to detect a specimen, wherein the computer is provided with first image data relating to a first image containing a learning specimen obtained by a first method. and a second image including the region of interest of the learning specimen obtained by a second method different from the first method, which enables identification of the region of interest in the learning specimen. A process of acquiring image data, a process of generating learning data based on the first image data and the second image data, and the first image data related to the first image containing the specimen obtained by the first method. a process of training the detector based on the generated learning data so that the detector can detect the specimen based on the.
本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第2画像から所定の画素数で構成される画素ブロックを複数特定する処理と、特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの画素の特徴量を関連付けて前記学習データを生成する処理とを実行させる。 A computer program according to the present embodiment provides a computer with a process of identifying a plurality of pixel blocks each having a predetermined number of pixels from the second image, and identifying a pixel block of the first image corresponding to the identified pixel block. and generating the learning data by associating the feature values of the pixels of the specified pixel block.
本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1画像の画素ブロックに、前記特定した画素ブロック内の所定画素の画素値を関連付けて前記学習データを生成する処理を実行させる。 A computer program according to the present embodiment causes a computer to execute a process of generating the learning data by associating the pixel block of the first image with the pixel value of the predetermined pixel in the specified pixel block.
本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第2画像を二値化する処理と、前記二値化する処理によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定する処理と、特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成する処理とを実行させる。 A computer program according to the present embodiment provides a computer with a process for binarizing the second image and a predetermined either a process of specifying a plurality of pixel blocks composed of the number of pixels, or pixel values of binarized predetermined pixels of the specified pixel blocks in the pixel blocks of the first image corresponding to the specified pixel blocks. are associated with each other to generate the learning data.
本実施の形態に係るコンピュータプログラムは、コンピュータに、前記検出器を学習させた結果に基づいて、検体の推定位置を表示する処理を実行させる。 A computer program according to the present embodiment causes a computer to execute a process of displaying an estimated position of a sample based on a result of learning the detector.
本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、前記第1画像から所定の画素数で構成される画素ブロックを複数特定する処理と、特定した画素ブロックの各画素の画素値に基づいて入力データを生成する処理と、生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理とを実行させる。 A computer program according to the present embodiment provides a computer with a process of acquiring first image data related to a first image containing a specimen, obtained by the first method, and a predetermined number of pixels from the first image. A process of specifying a plurality of pixel blocks to be configured, a process of generating input data based on the pixel values of each pixel in the specified pixel blocks, and an output value output from the detector to which the generated input data is input. and generating an estimated image of the second image including the region of interest of the specimen obtained by the second method without relying on the second method.
本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1画像と前記推定画像とを対比して表示する処理を実行させる。 A computer program according to the present embodiment causes a computer to execute processing for displaying the first image and the estimated image in comparison.
本実施の形態に係るコンピュータプログラムは、コンピュータに、前記第1方法によって時系列に得られた、検体を含む複数の第1画像それぞれから所定の画素数で構成される画素ブロックを複数特定する処理と、前記複数の第1画像毎に、特定した画素ブロックの各画素の画素値に基づいて複数の組の入力データを生成する処理と、前記複数の組の入力データが入力された前記検出器が出力する出力値に基づいて、検体の推定移動軌跡を表示する処理とを実行させる。 A computer program according to the present embodiment provides a computer with a process of identifying a plurality of pixel blocks each composed of a predetermined number of pixels from each of a plurality of first images containing a specimen obtained in time series by the first method. a process of generating a plurality of sets of input data for each of the plurality of first images based on the pixel value of each pixel of the specified pixel block; and the detector to which the plurality of sets of input data are input. and a process of displaying the estimated movement trajectory of the specimen based on the output value output by the.
本実施の形態に係るコンピュータプログラムは、コンピュータに、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る前記第1画像データを取得する処理と、前記細胞の関心領域を含む染色画像に係る前記第2画像データを取得する処理とを実行させる。 The computer program according to the present embodiment provides a computer with a process of acquiring the first image data related to at least one of a phase contrast image or a bright field image containing cells, and a staining image containing the region of interest of the cells. and a process of acquiring the second image data.
本実施の形態に係るコンピュータプログラムは、コンピュータに、検体を検出させるためのコンピュータプログラムであって、コンピュータに、第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、取得した第1画像データ及び学習済検出器に基づいて、前記検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理とを実行させる。 A computer program according to the present embodiment is a computer program for causing a computer to detect a specimen, wherein the computer acquires first image data relating to a first image containing the specimen obtained by a first method. The second method, without relying on a second method different from the first method, that enables identification of a region of interest in the specimen based on the acquired first image data and the trained detector. and generating an estimated image of the second image including the region of interest of the specimen obtained by.
本実施の形態に係る検出装置は、検体を検出する検出装置であって、第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する第1取得部と、前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する第2取得部と、前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部とを備える。 A detection device according to the present embodiment is a detection device that detects a sample, and includes a first acquisition unit that acquires first image data related to a first image that includes a learning sample and is obtained by a first method; , obtaining second image data relating to a second image including the region of interest of the learning specimen obtained by a second method different from the first method, which enables identification of the region of interest in the learning specimen a second acquisition unit, a learning data generation unit that generates learning data based on the first image data and the second image data, and a first image related to the first image containing the specimen obtained by the first method a learning processing unit that makes the detector learn based on the generated learning data so that the detector can detect the specimen based on the data.
本実施の形態に係る検出装置は、前記第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する取得部と、前記第1画像から所定の画素数で構成される画素ブロックを複数特定する特定部と、該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する画像生成部とを備える。 The detection device according to the present embodiment includes an acquisition unit that acquires first image data related to a first image containing a specimen obtained by the first method, and a predetermined number of pixels from the first image. an specifying unit for specifying a plurality of pixel blocks to be specified, an input data generating unit for generating input data based on pixel values of pixels in the pixel blocks specified by the specifying unit, and input data generated by the input data generating unit. An image for generating an estimated image of a second image including the region of interest of the specimen obtained by the second method without relying on the second method, based on the input output values output by the detector. and a generator.
本実施の形態に係る検出装置は、検体の関心領域の種別毎に前記検出器を複数備える。 The detection apparatus according to the present embodiment includes a plurality of detectors for each type of region of interest of the specimen.
本実施の形態に係る検出装置において、前記検出器は、入力データを出力値に変換する複数のパラメータを有し、前記学習処理部は、前記検出器の前記複数のパラメータを更新して前記検出器を再学習可能にしている。 In the detection device according to this embodiment, the detector has a plurality of parameters for converting input data into an output value, and the learning processing unit updates the plurality of parameters of the detector to detect the Makes the device relearnable.
本実施の形態に係る撮像装置は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方を出力する第1出力部と、撮像して得られた、細胞の関心領域を含む染色画像を出力する第2出力部と、前記第1出力部が出力する、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データを取得する第1取得部と、前記第2出力部が出力する、前記学習用細胞の関心領域を含む染色画像に係る第2画像データを取得する第2取得部と、前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、前記第1出力部が出力する、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づいて検出器が細胞を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部とを備える。 The imaging device according to the present embodiment includes a first output unit that outputs at least one of a phase-contrast image and a bright-field image containing cells obtained by imaging, and a region of interest of the cell obtained by imaging. A second output unit that outputs a stained image containing a and a second acquisition unit that acquires second image data related to the stained image including the region of interest of the learning cell output by the second output unit, and based on the first image data and the second image data Based on the first image data related to at least one of the phase-contrast image and the bright-field image containing the cell, output by the learning data generation unit that generates learning data and the first output unit so that the detector can detect the cell a learning processing unit for learning the detector based on the generated learning data.
本実施の形態に係る撮像装置は、細胞を含む位相差画像又は明視野画像の少なくとも一方から所定の画素数で構成される画素ブロックを複数特定する特定部と、該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを生成する画像データ生成部とを備える。 The imaging device according to the present embodiment includes a specifying unit that specifies a plurality of pixel blocks each having a predetermined number of pixels from at least one of a phase-contrast image and a bright-field image containing cells, and a pixel block specified by the specifying unit. an input data generation unit that generates input data based on the pixel value of each pixel of the input data generation unit; and an image data generation unit that generates estimated image data related to an estimated image of a stained image that includes the region of interest of the cell.
本実施の形態に係るサーバは、細胞を検出する検出器と、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する取得部と、該取得部で取得した画像データを前記検出器に入力し、前記細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを出力する出力部とを備える。 The server according to the present embodiment includes a detector that detects cells, an acquisition unit that acquires image data related to at least one of a phase contrast image or a bright field image containing cells, and image data acquired by the acquisition unit. and an output unit for inputting to the detector and outputting estimated image data relating to an estimated image of a stained image including the region of interest of the cell without staining the cell.
本実施の形態に係る画像データは、細胞が検出された画像データであって、撮像して得られる細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを含む構造を有し、前記推定画像は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づく入力データを、細胞を検出する検出器に入力して前記検出器が出力する出力値に基づいて生成され、前記検出器は、撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、前記学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習されている。 The image data according to the present embodiment is image data in which cells are detected, and has a structure including estimated image data related to an estimated image of a stained image including a region of interest of a cell obtained by imaging, The estimated image is obtained by inputting input data based on first image data related to at least one of a phase contrast image or a bright field image containing cells to a detector that detects cells, and the detector is generated based on the output value output by the detector, the first image data related to at least one of the phase contrast image or the bright field image containing the learning cell obtained by imaging, and the first image data obtained by imaging learning is performed by learning data generated based on the second image data related to the stained image including the region of interest of the learning cell.
本実施の形態に係る検出器は、細胞を検出する検出器であって、撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、前記学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習されている。 The detector according to the present embodiment is a detector that detects cells, and is obtained by imaging, first image data related to at least one of a phase contrast image or a bright field image containing learning cells, and Learning is performed by learning data generated based on the second image data related to the stained image including the region of interest of the learning cell obtained by imaging.
本実施の形態に係る検出器は、前記染色画像から所定の画素数で構成される画素ブロックを複数特定し、特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画素ブロックに、特定した画素ブロックの画素の特徴量を関連付けて生成された学習データによって学習されている。 The detector according to the present embodiment identifies a plurality of pixel blocks composed of a predetermined number of pixels from the stained image, and at least one pixel block of the phase contrast image or the bright field image corresponding to the identified pixel block. is learned by learning data generated by associating the feature values of the pixels of the specified pixel block.
本実施の形態に係る検出器は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを入力データとして受け付ける入力部と、該入力部で受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する出力部とを備える。 The detector according to the present embodiment includes an input unit that receives as input data image data related to at least one of a phase contrast image and a bright field image containing cells obtained by imaging, and an input received by the input unit an output unit configured to output estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging the cell without staining the cell, based on the data.
本実施の形態に係る検出方法は、細胞を検出する検出器による検出方法であって、前記検出器は、撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを入力データとして受け付け、受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する。 The detection method according to the present embodiment is a detection method using a detector that detects cells, and the detector is obtained by imaging and relates to at least one of a phase contrast image or a bright field image containing cells Receiving image data as input data, and outputting estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging the cell without staining the cell based on the received input data. .
本実施の形態に係る提供方法は、所定環境下で培養された細胞の提供方法であって、コンピュータに、撮像して得られた、前記細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する処理と、取得した画像データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する処理とを実行させるコンピュータプログラムを配信し、前記コンピュータプログラムが配信されたユーザからの要求を受け付けた場合、前記ユーザに所定環境下で培養された細胞を提供するための情報を生成する。 The provision method according to the present embodiment is a method for providing cells cultured under a predetermined environment, wherein at least one of a phase contrast image or a bright field image containing the cells obtained by imaging a computer is and outputting estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging the cell without staining the cell based on the acquired image data. When a computer program for executing the processing to be performed is distributed, and a request from the user to whom the computer program is distributed is received, information for providing the user with cells cultured under a predetermined environment is generated.
50 検出装置
51 処理部
511 検出モデル部
512 入力データ生成部
513 推定画像生成部
514 学習処理部
515 学習データ生成部
52 第1画像データ取得部
53 第2画像データ取得部
54 メモリ
55 出力部
56 表示部
60 表示装置
100 顕微鏡
200、201 端末装置
300 サーバ
310 配信サーバ
320 提供サーバ
50
Claims (18)
コンピュータに、
第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する処理と、
前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する処理と、
前記第1画像データ及び第2画像データに基づいて学習データを生成する処理と、
前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる処理と、
前記第2画像を二値化する処理と、
前記二値化する処理によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定する処理と、
特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成する処理と
を実行させるコンピュータプログラム。 A computer program for causing a computer to detect an analyte,
to the computer,
A process of acquiring first image data related to a first image containing a learning sample obtained by the first method;
A process of acquiring second image data relating to a second image including the region of interest of the learning specimen, which is obtained by a second method different from the first method that enables identification of the region of interest in the learning specimen. When,
a process of generating learning data based on the first image data and the second image data;
A process of learning the detector based on the generated learning data so that the detector can detect the specimen based on the first image data related to the first image containing the specimen obtained by the first method;
a process of binarizing the second image;
a process of identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each of the binary pixel values of the pixels obtained by the binarization process;
a computer that causes the pixel block of the first image corresponding to the specified pixel block to be associated with any of the pixel values of the binarized predetermined pixels of the specified pixel block to generate the learning data. program.
前記検出器を学習させた結果に基づいて、検体の推定位置を表示する処理を実行させる請求項1に記載のコンピュータプログラム。 to the computer,
2. The computer program according to claim 1, which executes a process of displaying the estimated position of the specimen based on the result of learning the detector.
前記第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、
前記第1画像から所定の画素数で構成される画素ブロックを複数特定する処理と、
特定した画素ブロックの各画素の画素値に基づいて入力データを生成する処理と、
生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理と
を実行させる請求項1又は請求項2に記載のコンピュータプログラム。 to the computer,
a process of acquiring first image data relating to a first image containing a specimen, obtained by the first method;
a process of identifying a plurality of pixel blocks each composed of a predetermined number of pixels from the first image;
a process of generating input data based on the pixel value of each pixel in the identified pixel block;
Estimation of a second image including the region of interest of the specimen obtained by the second method without relying on the second method, based on the output value output by the detector to which the generated input data is input 3. The computer program according to claim 1 or 2, causing the execution of a process of generating an image.
前記第1画像と前記推定画像とを対比して表示する処理を実行させる請求項3に記載のコンピュータプログラム。 to the computer,
4. The computer program according to claim 3, causing execution of processing for displaying the first image and the estimated image in comparison.
前記第1方法によって時系列に得られた、検体を含む複数の第1画像それぞれから所定の画素数で構成される画素ブロックを複数特定する処理と、
前記複数の第1画像毎に、特定した画素ブロックの各画素の画素値に基づいて複数の組の入力データを生成する処理と、
前記複数の組の入力データが入力された前記検出器が出力する出力値に基づいて、検体の推定移動軌跡を表示する処理と
を実行させる請求項1から請求項4のいずれか一項に記載のコンピュータプログラム。 to the computer,
A process of identifying a plurality of pixel blocks composed of a predetermined number of pixels from each of a plurality of first images containing the specimen obtained in time series by the first method;
generating a plurality of sets of input data for each of the plurality of first images based on the pixel value of each pixel in the identified pixel block;
5. The process of displaying an estimated movement trajectory of the specimen based on output values output by the detector to which the plurality of sets of input data are input, and executing: computer program.
細胞を含む位相差画像又は明視野画像の少なくとも一方に係る前記第1画像データを取得する処理と、
前記細胞の関心領域を含む染色画像に係る前記第2画像データを取得する処理と
を実行させる請求項1から請求項5のいずれか一項に記載のコンピュータプログラム。 to the computer,
A process of acquiring the first image data related to at least one of a phase contrast image or a bright field image containing cells;
6. The computer program according to any one of claims 1 to 5, causing execution of a process of acquiring the second image data related to the stained image including the region of interest of the cell.
コンピュータに、
第1方法によって得られた、検体を含む第1画像に係る第1画像データを取得する処理と、
取得した第1画像データ及び学習済検出器に基づいて、前記検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する処理と、
前記第2画像を二値化する処理と、
前記二値化する処理によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定する処理と、
特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習済検出器を学習させる学習データを生成する処理と
を実行させるコンピュータプログラム。 A computer program for causing a computer to detect an analyte,
to the computer,
a process of acquiring first image data relating to a first image containing the specimen obtained by the first method;
The obtained by the second method without relying on a second method different from the first method, which enables identification of a region of interest in the specimen based on the acquired first image data and the trained detector. a process of generating an estimated image of the second image containing the region of interest of the specimen;
a process of binarizing the second image;
a process of identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each of the binary pixel values of the pixels obtained by the binarization process;
Learning data for learning the learned detector is generated by associating a pixel block of the first image corresponding to the specified pixel block with any of pixel values of binarized predetermined pixels of the specified pixel block. A computer program that causes a process to be performed.
第1方法によって得られた、学習用検体を含む第1画像に係る第1画像データを取得する第1取得部と、
前記学習用検体内の関心領域を識別可能にする、前記第1方法と異なる第2方法によって得られた、前記学習用検体の関心領域を含む第2画像に係る第2画像データを取得する第2取得部と、
前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、
前記第1方法によって得られた、検体を含む第1画像に係る第1画像データに基づいて検出器が検体を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部と
を備え、
前記学習データ生成部は、
前記第2画像を二値化し、
前記二値化によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定し、
特定した画素ブロックに対応する前記第1画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成する検出装置。 A detection device for detecting a specimen,
a first acquisition unit that acquires first image data related to a first image containing a learning sample, which is obtained by the first method;
Acquiring second image data related to a second image including the region of interest of the learning specimen obtained by a second method different from the first method, which enables identification of the region of interest in the learning specimen 2 an acquisition unit;
a learning data generation unit that generates learning data based on the first image data and the second image data;
A learning processing unit for learning the detector based on the generated learning data so that the detector can detect the specimen based on the first image data related to the first image containing the specimen obtained by the first method. and
The learning data generation unit
binarizing the second image;
identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each binary value, which is the pixel value of the pixel obtained by the binarization;
A detection device that generates the learning data by associating a pixel block of the first image corresponding to the specified pixel block with any of pixel values of binarized predetermined pixels of the specified pixel block.
前記第1画像から所定の画素数で構成される画素ブロックを複数特定する特定部と、
該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、
該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、前記第2方法に依拠することなく、前記第2方法によって得られる前記検体の関心領域を含む第2画像の、推定画像を生成する画像生成部と
を備える請求項8に記載の検出装置。 an acquisition unit that acquires first image data related to a first image containing the specimen, which is obtained by the first method;
a specifying unit that specifies a plurality of pixel blocks each having a predetermined number of pixels from the first image;
an input data generation unit that generates input data based on the pixel value of each pixel in the pixel block identified by the identification unit;
including the region of interest of the specimen obtained by the second method without relying on the second method, based on the output value output by the detector to which the input data generated by the input data generation unit is input 9. The detection device according to claim 8, comprising an image generator for generating an estimated image of the second image.
入力データを出力値に変換する複数のパラメータを有し、
前記学習処理部は、
前記検出器の前記複数のパラメータを更新して前記検出器を再学習可能にしている請求項8から請求項10のいずれか一項に記載の検出装置。 The detector is
has multiple parameters that transform input data into output values,
The learning processing unit
11. A detection apparatus according to any one of claims 8 to 10, wherein the plurality of parameters of the detector are updated to allow the detector to be retrained.
撮像して得られた、細胞の関心領域を含む染色画像を出力する第2出力部と、
前記第1出力部が出力する、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データを取得する第1取得部と、
前記第2出力部が出力する、前記学習用細胞の関心領域を含む染色画像に係る第2画像データを取得する第2取得部と、
前記第1画像データ及び第2画像データに基づいて学習データを生成する学習データ生成部と、
前記第1出力部が出力する、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データに基づいて検出器が細胞を検出できるように、生成した学習データに基づいて前記検出器を学習させる学習処理部と
を備え、
前記学習データ生成部は、
前記染色画像を二値化し、
前記二値化によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定し、
特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成する撮像装置。 a first output unit that outputs at least one of a phase-contrast image or a bright-field image containing cells obtained by imaging;
a second output unit that outputs a stained image containing a region of interest of a cell obtained by imaging;
a first acquisition unit that acquires first image data related to at least one of a phase contrast image or a bright field image containing learning cells, which is output by the first output unit;
a second acquisition unit for acquiring second image data relating to a stained image including the region of interest of the learning cell, output by the second output unit;
a learning data generation unit that generates learning data based on the first image data and the second image data;
The detection based on the generated learning data so that the detector can detect the cell based on the first image data related to at least one of the phase contrast image or the bright field image containing the cell, which the first output unit outputs and a learning processing unit for learning a device,
The learning data generation unit
binarizing the stained image;
identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each binary value, which is the pixel value of the pixel obtained by the binarization;
The learning data by associating a pixel block of at least one of the phase-contrast image and the bright-field image corresponding to the specified pixel block with the binarized pixel value of the specified pixel of the specified pixel block. An imaging device that produces
該特定部で特定した画素ブロックの各画素の画素値に基づいて入力データを生成する入力データ生成部と、
該入力データ生成部で生成した入力データが入力された前記検出器が出力する出力値に基づいて、細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを生成する画像データ生成部と
を備える請求項12に記載の撮像装置。 an identifying unit that identifies a plurality of pixel blocks each composed of a predetermined number of pixels from at least one of a phase-contrast image and a bright-field image containing cells;
an input data generation unit that generates input data based on the pixel value of each pixel in the pixel block identified by the identification unit;
Based on the output value output by the detector to which the input data generated by the input data generation unit is input, estimated image data related to an estimated image of a stained image including the region of interest of the cell without staining the cell. 13. The imaging apparatus according to claim 12, further comprising: an image data generation unit that generates a .
細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する取得部と、
該取得部で取得した画像データを前記検出器に入力し、前記細胞を染色することなく、前記細胞の関心領域を含む染色画像の推定画像に係る推定画像データを出力する出力部と、
前記検出器を学習させる学習データを生成する学習データ生成部と
を備え、
前記学習データ生成部は、
前記染色画像を二値化し、
前記二値化によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定し、
特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記学習データを生成するサーバ。 a detector for detecting cells;
an acquisition unit that acquires image data related to at least one of a phase-contrast image and a bright-field image containing cells;
an output unit that inputs image data acquired by the acquisition unit to the detector and outputs estimated image data related to an estimated image of a stained image that includes a region of interest of the cell without staining the cell;
a learning data generation unit that generates learning data for learning the detector,
The learning data generation unit
binarizing the stained image;
identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each binary value, which is the pixel value of the pixel obtained by the binarization;
The learning data by associating a pixel block of at least one of the phase-contrast image and the bright-field image corresponding to the specified pixel block with the binarized pixel value of the specified pixel of the specified pixel block. server that generates the .
撮像して得られた、学習用細胞を含む位相差画像又は明視野画像の少なくとも一方に係る第1画像データ、及び撮像して得られた、前記学習用細胞の関心領域を含む染色画像に係る第2画像データに基づいて生成された学習データによって学習され、
さらに、前記染色画像を二値化し、
前記二値化によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定し、
特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて生成された学習データによって学習されている検出器。 A detector for detecting cells,
First image data related to at least one of a phase-contrast image or a bright-field image containing the learning cell obtained by imaging, and a stained image containing the region of interest of the learning cell obtained by imaging Learned by learning data generated based on the second image data,
Further, binarize the stained image,
identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each binary value, which is the pixel value of the pixel obtained by the binarization;
generated by associating a pixel block of at least one of the phase-contrast image and the bright-field image corresponding to the specified pixel block with one of the binarized pixel values of the specified pixels of the specified pixel block A detector that has been trained on the training data.
該入力部で受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する出力部と
を備える請求項15に記載の検出器。 an input unit that receives, as input data, image data relating to at least one of a phase-contrast image containing cells and a bright-field image obtained by imaging;
an output unit for outputting estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging the cell without staining the cell, based on the input data received by the input unit; 16. The detector of claim 15, comprising:
前記検出器は、
撮像して得られた、細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを入力データとして受け付け、
受け付けた入力データに基づいて、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力し、
前記染色画像を二値化し、
前記二値化によって得られた画素の画素値である二値それぞれに対応し、所定の画素数で構成される画素ブロックを複数特定し、
特定した画素ブロックに対応する前記位相差画像又は明視野画像の少なくとも一方の画像の画素ブロックに、前記特定した画素ブロックの二値化された所定画素の画素値のいずれかを関連付けて前記検出器を学習させる学習データを生成する検出方法。 A detection method using a detector that detects cells,
The detector is
Accepting as input data image data relating to at least one of a phase-contrast image or a bright-field image containing cells, obtained by imaging;
Based on the received input data, outputting estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by imaging without staining the cell,
binarizing the stained image;
identifying a plurality of pixel blocks each composed of a predetermined number of pixels corresponding to each binary value, which is the pixel value of the pixel obtained by the binarization;
A pixel block of at least one of the phase-contrast image and the bright-field image corresponding to the specified pixel block is associated with one of the binarized pixel values of predetermined pixels of the specified pixel block, and the detector A detection method that generates training data for learning .
コンピュータに、
撮像して得られた、前記細胞を含む位相差画像又は明視野画像の少なくとも一方に係る画像データを取得する処理と、
取得した画像データを、学習データによって学習された検出器に入力し、前記細胞を染色することなく、撮像して得られる前記細胞の関心領域を含む染色画像の、推定画像に係る推定画像データを出力する処理と
を実行させるコンピュータプログラムを配信サーバが配信し、
前記コンピュータプログラムが配信されたユーザの端末装置からの要求を提供サーバが受け付けた場合、前記ユーザの端末装置に前記検出器の学習に使用した細胞と同じ培養環境下で培養された細胞を提供するための提供情報を前記提供サーバが生成し、
生成された提供情報に基づいて前記ユーザ宛に前記細胞を提供する提供方法。 A method for providing cells cultured under a predetermined environment, comprising:
to the computer,
A process of acquiring image data related to at least one of a phase-contrast image or a bright-field image containing the cell, obtained by imaging;
Estimated image data related to an estimated image of a stained image including a region of interest of the cell obtained by inputting the acquired image data into a detector trained by the learning data and imaging the cell without staining the cell. The distribution server distributes the output processing and the computer program for executing
When the providing server accepts a request from the user's terminal device to which the computer program was delivered, the user's terminal device is provided with cells cultured in the same culture environment as the cells used for learning the detector. The provision server generates provision information for
A provision method for providing the cells to the user based on the generated provision information .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220327A JP7135303B2 (en) | 2017-11-15 | 2017-11-15 | Computer program, detection device, imaging device, server, detector, detection method and provision method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220327A JP7135303B2 (en) | 2017-11-15 | 2017-11-15 | Computer program, detection device, imaging device, server, detector, detection method and provision method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019091307A JP2019091307A (en) | 2019-06-13 |
JP7135303B2 true JP7135303B2 (en) | 2022-09-13 |
Family
ID=66836400
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017220327A Active JP7135303B2 (en) | 2017-11-15 | 2017-11-15 | Computer program, detection device, imaging device, server, detector, detection method and provision method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7135303B2 (en) |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019135939A (en) * | 2018-02-07 | 2019-08-22 | 澁谷工業株式会社 | Cell count method, cell count device and cell culture method |
JPWO2021070372A1 (en) * | 2019-10-11 | 2021-04-15 | ||
JP2021064115A (en) * | 2019-10-11 | 2021-04-22 | 株式会社島津製作所 | Cell image analysis method and cell analysis device |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009014939A (en) | 2007-07-03 | 2009-01-22 | Olympus Corp | Microscope system, method and program of its vs image formation |
JP2011229409A (en) | 2010-04-23 | 2011-11-17 | Nagoya Univ | Cell evaluation device, incubator, cell evaluation method, cell evaluation program and cell culture method |
US20140270457A1 (en) | 2013-03-15 | 2014-09-18 | The Board Of Trustees Of The University Of Illinois | Stain-free histopathology by chemical imaging |
WO2015068759A1 (en) | 2013-11-06 | 2015-05-14 | 独立行政法人科学技術振興機構 | Substrate for controlling movement direction of animal cells, and cell identification method and cell separation method which use said substrate |
JP2016184224A (en) | 2015-03-25 | 2016-10-20 | 株式会社日立ハイテクノロジーズ | Cytology support apparatus, cytology support method, remote diagnosis support system, service providing system, and image processing method |
Family Cites Families (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018105432A1 (en) * | 2016-12-06 | 2018-06-14 | 富士フイルム株式会社 | Cell image evaluation device and cell image evaluation control program |
-
2017
- 2017-11-15 JP JP2017220327A patent/JP7135303B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2009014939A (en) | 2007-07-03 | 2009-01-22 | Olympus Corp | Microscope system, method and program of its vs image formation |
JP2011229409A (en) | 2010-04-23 | 2011-11-17 | Nagoya Univ | Cell evaluation device, incubator, cell evaluation method, cell evaluation program and cell culture method |
US20140270457A1 (en) | 2013-03-15 | 2014-09-18 | The Board Of Trustees Of The University Of Illinois | Stain-free histopathology by chemical imaging |
WO2015068759A1 (en) | 2013-11-06 | 2015-05-14 | 独立行政法人科学技術振興機構 | Substrate for controlling movement direction of animal cells, and cell identification method and cell separation method which use said substrate |
JP2016184224A (en) | 2015-03-25 | 2016-10-20 | 株式会社日立ハイテクノロジーズ | Cytology support apparatus, cytology support method, remote diagnosis support system, service providing system, and image processing method |
Also Published As
Publication number | Publication date |
---|---|
JP2019091307A (en) | 2019-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6915349B2 (en) | Image processing equipment, image processing method, and image processing program | |
US11861889B2 (en) | Analysis device | |
US11580640B2 (en) | Identifying the quality of the cell images acquired with digital holographic microscopy using convolutional neural networks | |
Arndt-Jovin et al. | Fluorescence digital imaging microscopy in cell biology | |
Bayraktar et al. | Feature extraction from light-scatter patterns of Listeria colonies for identification and classification | |
JP7135303B2 (en) | Computer program, detection device, imaging device, server, detector, detection method and provision method | |
JP2009512927A (en) | Image processing method | |
WO2017150194A1 (en) | Image processing device, image processing method, and program | |
TW202041850A (en) | Image noise reduction using stacked denoising auto-encoder | |
CN111095360A (en) | Virtual staining of cells in digital holographic microscopy images using a universal countermeasure network | |
JP2015210212A (en) | Cell life-and-death determination system and cell life-and-death determination method | |
US11068695B2 (en) | Image processing device, observation device, and program | |
CN111160235A (en) | Living body detection method and device and electronic equipment | |
EP3973447B1 (en) | Surface recognition | |
JP7148776B2 (en) | Colony identification system, colony identification method and colony identification program | |
Schaefer | Strategies for imbalanced pattern classification for digital pathology | |
Nedzved et al. | Automatic analysis of moving particles by total internal reflection fluorescence microscopy | |
To | Deep Learning Classification of Deep Ultraviolet Fluorescence Images for Margin Assessment During Breast Cancer Surgery | |
JP7248139B2 (en) | Cell image analysis method and cell analysis device | |
RU2774624C1 (en) | Method and system for determining synthetic changes of faces in video | |
Manimurugan et al. | HLASwin-T-ACoat-Net based Underwater Object Detection | |
US20190073516A1 (en) | Image processing device, observation device, and program | |
John et al. | An Objective Evaluation of Harris Corner and FAST Feature Extraction Techniques for 3D Reconstruction of Face in Forensic Investigation | |
Sun et al. | HistDeblur: A Pyramid Trustworthy Framework for Blurry Histologic Artifacts Quality Control | |
CN114998339A (en) | Plane mirror imaging scoring method, device and equipment and readable storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200925 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210927 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211102 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211224 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220714 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220802 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220815 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7135303 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |