JP7091635B2 - Object detector, image analysis device, object detection method, image analysis method, program, and training data - Google Patents
Object detector, image analysis device, object detection method, image analysis method, program, and training data Download PDFInfo
- Publication number
- JP7091635B2 JP7091635B2 JP2017220345A JP2017220345A JP7091635B2 JP 7091635 B2 JP7091635 B2 JP 7091635B2 JP 2017220345 A JP2017220345 A JP 2017220345A JP 2017220345 A JP2017220345 A JP 2017220345A JP 7091635 B2 JP7091635 B2 JP 7091635B2
- Authority
- JP
- Japan
- Prior art keywords
- detection
- sample
- image
- detected
- detector
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Apparatus Associated With Microorganisms And Enzymes (AREA)
- Image Analysis (AREA)
- Medical Treatment And Welfare Office Work (AREA)
Description
本開示は、検体の画像を分析する技術に関する。 The present disclosure relates to a technique for analyzing an image of a sample.
近年、タイムラプス装置の普及により、検体の経時的な変化を観察することが可能となっている。例えば、特許文献1は、培養容器内の細胞をタイムラプス装置により画像処理する手法を記載している。
In recent years, with the spread of time-lapse devices, it has become possible to observe changes over time in a sample. For example,
しかし、特許文献1のように、対象物を照明しつつ撮影画像を取得する方法では、照明の位置や方向との関係で撮影画像における対象物の見え方に差異が生じるため、画像解析の精度が低下してしまうという問題がある。
However, in the method of acquiring a photographed image while illuminating the object as in
本開示は、照明の影響による検出精度の低下を防止することが可能な画像解析装置を提供することを主な目的とする。 It is a main object of the present disclosure to provide an image analysis apparatus capable of preventing a decrease in detection accuracy due to the influence of lighting.
本願は上記課題を解決する手段を複数含んでいるが、その一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する対象物検出器は、学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行い、検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する。
The present application includes a plurality of means for solving the above-mentioned problems. For example, an object detector that detects a detection object contained in the sample from a photographed image of the sample is a sample at the time of learning. Learning is performed by the input data which is the captured image of the above and the teacher data prepared for each divided portion in which the region including the detection object included in the captured image is divided into a plurality of portions so as to include the detection object. At the time of detection, the captured image of the actual sample is received as input data, and the detection result of the detection target contained in the captured image is output.
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置は、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器を備え、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みである。
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置は、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器を備え、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含む。
The present application includes a plurality of means for solving the above problems, but to give another example, an image analysis device for detecting a detection target contained in the sample from the photographed image of the sample is a photographed image of the sample. The object detector is provided with an object detector for detecting an object to be detected contained in the sample, and the object detector includes input data which is a photographed image of the sample and the detection object included in the photographed image. It has been learned by a plurality of training data including the teacher data prepared for each divided portion in which the region is divided into a plurality of portions so as to include the detection target .
The present application includes a plurality of means for solving the above problems, but to give another example, an image analysis device for detecting a detection target contained in the sample from the photographed image of the sample is a photographed image of the sample. The object detector is provided with an object detector for detecting an object to be detected contained in the sample, and the object detector includes input data which is a photographed image of the sample and the detection object included in the photographed image. It has been trained by a plurality of training data including teacher data prepared for each divided portion in which the region is divided into a plurality of portions, and the divided portion includes a distribution of pixel values due to the structure of the detection object. ..
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物を検出する対象物検出器により実行されるプログラムは、学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行う手段、検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する手段、として前記コンピュータを機能させる。
The present application includes a plurality of means for solving the above problems, but to give another example, the present application is provided with a computer and executed by an object detector that detects an object to be detected contained in the sample from a photographed image of the sample. At the time of learning, the program to be executed is divided into a plurality of parts so as to include the input data which is a photographed image of the sample and the area including the detection object included in the photographed image. The computer functions as a means for learning based on the teacher data prepared in the above, a means for receiving a photographed image of an actual sample as input data at the time of detection, and a means for outputting the detection result of the detection target contained in the photographed image. Let me.
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行されるプログラムは、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器として前記コンピュータを機能させ、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みである。
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行されるプログラムは、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器として前記コンピュータを機能させ、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含む。
The present application includes a plurality of means for solving the above problems, but to give another example, it is executed by an image analysis device equipped with a computer and detecting an object to be detected contained in the sample from a photographed image of the sample. Program causes the computer to function as an object detector that detects an object to be detected contained in the sample from the captured image of the sample, and the object detector uses input data that is a captured image of the sample. , The region including the detection target included in the captured image is divided into a plurality of portions so as to include the detection target, and the training data including the teacher data prepared for each divided portion has been learned. ..
The present application includes a plurality of means for solving the above problems, but to give another example, it is executed by an image analysis device equipped with a computer and detecting an object to be detected contained in the sample from a photographed image of the sample. Program causes the computer to function as an object detector that detects an object to be detected contained in the sample from the captured image of the sample, and the object detector uses input data that is a captured image of the sample. , The region including the detection target included in the captured image has been learned by a plurality of learning data including the teacher data prepared for each divided portion divided into a plurality of portions, and the divided portion is the detection. Includes the distribution of pixel values due to the structure of the object.
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、コンピュータを備え、検体の撮影画像から、前記検体に含まれる検出対象物の個数毎の確率を算出するよう、前記コンピュータを機能させるための学習済みモデルは、第1のニューラルネットワークと、前記第1のニューラルネットワークからの出力が入力されるように結合された第2のニューラルネットワークとから構成され、前記第1のニューラルネットワークが、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、前記検体の撮影画像を基に当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割画像を出力するように構成されており、前記第2のニューラルネットワークが、前記対象物検出器により検出対象物が検出された検出情報を含む入力データと、当該検出情報に含まれる前記検出対象物の個数毎の確率を示す教師データとにより学習済みであり、前記対象物検出器により検出対象物が検出された検出情報を基に当該検出情報に含まれる前記検出対象物の個数毎の確率を出力するように構成されている。 The present application includes a plurality of means for solving the above-mentioned problems, but to give another example, a computer is provided, and the probability for each number of detection objects contained in the sample is calculated from the photographed image of the sample. The trained model for operating the computer comprises a first neural network and a second neural network coupled so that the output from the first neural network is input. A plurality of neural networks including 1 input data which is a photographed image of the sample and teacher data prepared for each divided portion in which a region including the detection target included in the captured image is divided into a plurality of portions. It has been learned from the training data of the above, and it is configured to output a divided image in which a region including the detection target object included in the captured image is divided into a plurality of parts based on the captured image of the sample. The second neural network learns from the input data including the detection information in which the detection target is detected by the object detector and the teacher data showing the probability for each number of the detection objects included in the detection information. It has already been completed, and it is configured to output the probability for each number of the detection objects included in the detection information based on the detection information in which the detection object is detected by the object detector.
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する対象物検出器により実行される対象物検出方法は、学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行う工程と、検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する工程と、を備える。
The present application includes a plurality of means for solving the above problems, but to give another example, an object executed by an object detector that detects an object to be detected contained in the sample from a photographed image of the sample. At the time of learning, the detection method is for each divided portion in which the input data which is the captured image of the sample and the region including the detection target included in the captured image are divided into a plurality of portions so as to include the detection target. It includes a step of learning with the prepared teacher data and a step of receiving a photographed image of an actual sample as input data at the time of detection and outputting a detection result of a detection object included in the photographed image.
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行される画像解析方法は、対象物検出器により、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出工程を備え、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みである。
本願は上記課題を解決する手段を複数含んでいるが、その他の一例を挙げるならば、検体の撮影画像から、前記検体に含まれる検出対象物を検出する画像解析装置によって実行される画像解析方法は、対象物検出器により、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出工程を備え、前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含む。
The present application includes a plurality of means for solving the above problems, but to give another example, an image analysis method executed by an image analysis device that detects an object to be detected contained in the sample from a photographed image of the sample. The object detector comprises an object detection step of detecting an object to be detected contained in the sample from the photographed image of the sample, and the object detector includes input data which is a photographed image of the sample. , The region including the detection target included in the captured image is divided into a plurality of portions so as to include the detection target, and the training data including the teacher data prepared for each divided portion has been learned. ..
The present application includes a plurality of means for solving the above problems, but to give another example, an image analysis method executed by an image analysis device that detects an object to be detected contained in the sample from a photographed image of the sample. The object detector comprises an object detection step of detecting an object to be detected contained in the sample from the photographed image of the sample, and the object detector includes input data which is a photographed image of the sample. , The region including the detection target included in the captured image has been trained by a plurality of learning data including the teacher data prepared for each divided portion divided into a plurality of portions, and the divided portion is the detection. Includes the distribution of pixel values due to the structure of the object.
本開示によれば、画像解析装置において、照明の影響による検出精度の低下を防止することが可能となる。 According to the present disclosure, it is possible to prevent a decrease in detection accuracy due to the influence of lighting in an image analysis device.
以下、本開示の好適な実施形態について説明する。
[システム構成]
図1は、実施形態に係る受精卵の画像解析システムの構成を示す。図示のように、画像解析システム100は、大別して、撮影装置50と、記憶装置55と、画像解析装置60とを備える。
Hereinafter, preferred embodiments of the present disclosure will be described.
[System configuration]
FIG. 1 shows the configuration of an image analysis system for a fertilized egg according to an embodiment. As shown in the figure, the
撮影装置50は、インキュベータ9を有し、インキュベータ9に設けられた図示しないチャンバ(室)に載置された培養容器10内の受精卵の画像を撮影し、記憶する。各培養容器10内には複数の受精卵が載置されており、撮影装置50は受精卵を識別するための識別情報、例えば、受精卵が収容されているウェルの識別情報などと対応付けて撮影画像を記憶装置55に送信する。具体的には、撮影画像50は、予め培養容器10内の各ウェル位置に対応したXY座標を記録しており、そのXY座標情報から、各ウェルを識別してもよいし、撮影開始時などに、各ウェル位置に対応付けるXY座標を微調整して、個別にウェル位置として座標登録をしてもよい。
The photographing
撮影装置50は、光源51と、カメラ52と、制御部53と、通信部54とを備える。光源51は、撮影のために培養容器10内の受精卵を上方から照明する。光源51は、点光源であっても面光源であっても、複数の点光源、面光源であってもよい。光源51による照明は、制御部53により制御される。
The photographing
カメラ52は、培養容器10の下方に移動可能に配置され、光源51により照明された状態の受精卵を撮影する。カメラ52は図示しないアクチュエータなどにより移動する。アクチュエータによるカメラ52の移動、及び、カメラ52による撮影は、制御部53により制御される。カメラ52は、観察開始から所定時間において、同じ培養容器10内の複数の受精卵を異なる時刻で撮影する。なお、同じ培養容器10内の複数の受精卵を撮影する場合、カメラ52が移動する代わりに培養容器10が移動する構造でもよく、カメラ52と培養容器10のいずれも移動せずに培養容器10内の受精卵全体を撮影する構造であってもよい。
The
制御部53は、光源51による照明、カメラ52の移動及びカメラ52による撮影を制御する。また、制御部53は、カメラ52から撮影画像を取得した場合、通信部54を制御することで、撮影画像を記憶装置55に送信する。
The
記憶装置55は、図示しない制御部、記憶部、通信部などを有し、各撮影装置50から送信される撮影画像を受信し、受信した撮影画像を記憶する。この場合、例えば、記憶装置55は、撮影装置50に設けられたインキュベータ9ごとにフォルダを設け、撮影画像を対応するフォルダに対応付けて記憶する。なお、記憶装置55は、上述のフォルダに対してチャンバごとのサブフォルダをさらに設け、撮影画像をチャンバごとに分類して記憶してもよい。また、記憶装置55は、画像解析装置60から撮影画像の取得要求を受信した場合に、当該取得要求により指定された撮影画像を画像解析装置60へ送信する。
The
画像解析装置60は、PC(Personal Computer)などにより構成され、受精卵の撮影画像に基づいて、受精卵に含まれる前核を検出する。受精卵は本開示の「検体」の一例であり、前核は本開示の「検出対象物」の一例である。画像解析装置60は、主に、通信部61と、入力部62と、記憶部63と、表示部64と、制御部65とを備える。
The
通信部61は、制御部65の制御に基づき、記憶装置55から受精卵の撮影画像を受信する。入力部62は、キーボード、マウス、回転操作が可能なホイールデバイス、タッチパネル、音声入力装置などであり、後述する前核数推定処理において使用される受精卵やその撮影画像などを指定する入力信号などを生成して制御部65へ供給する。記憶部63は、制御部65が実行するプログラム及びプログラムの実行に必要な情報を記憶する。例えば、記憶部63は、前核数推定処理に必要なプログラムを記憶する。表示部64は、制御部65の制御に基づき、前核数の検出結果を表示する。制御部65は、画像解析装置60の全体の制御を行う。制御部65は本開示の「対象物検出器」、「個数検出器」の一例であり、表示部64は本開示の「結果出力部」の一例である。
The
[撮影画像]
図2は、培養容器10及び受精卵の撮影画像の例を示す。培養容器10は円形の容器であり、中央部に収容部11が形成されている。収容部11内には、複数(図2の例では5×5=25個)のウェル12が形成されている。ウェル12は受精卵を収容するための窪みであり、1つのウェル12に1つの受精卵が収容される。図2(A)に示すように、収容部11は培養液13で満たされている。
[Shooted image]
FIG. 2 shows an example of a photographed image of the
図2(B)には、1つのウェル12の部分の撮影画像20が示されている。ウェル12内に受精卵が収容されている場合、撮影画像20は、ウェル12と、ウェル12内にある受精卵30とを含む。図2(B)の例では、受精卵30は2つの前核32を含んでいる。撮影装置50は、いわゆるタイムラプス観察により、同一の受精卵(即ち、同一のウェル12)についての撮影画像を所定時間間隔で複数生成し、記憶する。なお、撮影装置50は、ウェル12毎に画像を撮影するものとする。
FIG. 2B shows a captured
[前核数推定処理]
次に、前核数推定処理について説明する。前核数推定処理は、受精卵の撮影画像に基づいて、受精卵に含まれる前核を検出し、前核の数を推定する処理であり、画像解析装置60により実行される。図3は、前核数推定処理のフローチャートである。この処理は、画像解析装置60の制御部65が、予め用意されたプログラムを実行することにより実現される。
[Pre-nuclear number estimation process]
Next, the pronuclear number estimation process will be described. The pronucleus number estimation process is a process of detecting the pronuclei contained in the fertilized egg based on the photographed image of the fertilized egg and estimating the number of pronuclei, and is executed by the
まず、制御部65は、処理の対象となる受精卵の各時刻の撮影画像を記憶装置55から取得する(ステップS11)。具体的には、制御部65は、処理の対象となる受精卵について、受精後所定時間(例えば24時間程度)の間に所定の時間間隔で得られた撮影画像を記憶装置55から取得する。
First, the
次に、制御部65は受精卵検出処理を行う(ステップS12)。受精卵検出処理は、ステップS11で得られた各画像から受精卵を検出する処理である。本実施形態では、制御部65は、ハフ変換により受精卵を検出する。ハフ変換とは、画像中から特定の構造(直線、真円、楕円など)を検出する手法であり、部分的に隠れている対象物や、僅かに変形している対象物なども検出することができる。なお、受精卵は真円に近いので、ここでは制御部65はハフ変換により真円を検出する。
Next, the
図4(A)に受精卵の撮影画像20の一例を示す。制御部65は、ウェル12の内部の画素の明るさ(輝度)を解析し、明るさが隣の画素から急激に変わる画素を円周候補画素として検出する。そして、図4(B)に示すように、制御部65は、円周候補画素と最も多く重なる真円を受精卵30として検出する。なお、制御部65は、一般的な受精卵のサイズの範囲に属する真円を受精卵として検出する。ハフ変換は、円周候補画素との重なりの多少に基づいて検出を行うので、受精卵の一部が隠れていたり、部分的に変形している場合でも、受精卵30を正しく検出することができる。
FIG. 4A shows an example of a photographed
次に、制御部65は検出対象物を含む領域を検出する処理として、前核外周部検出処理を行う(ステップS13)。前核外周部検出処理は、ステップS12で検出された受精卵30内に存在する検出対象物としての前核の外周輪郭形状を定める外周部を含む領域を検出する処理(「前核外周部の検出」と呼ぶ。)である。ここでは、前核外周部の検出には、ニューラルネットワークを用いた機械学習(ディープラーニング)を利用するが、ニューラルネットワークに限定されるものではなく、他の機械学習(例えば、SVM:サポートベクターマシン、RAMDOM FOREST:ランダムフォレスト)のアルゴリズムを用いることもできる。なお、前核は真円や楕円の形状ではないものの、外周形状が滑らかに変化するものが多い。よって、実際は円形ではないものの、前核外周部検出処理においては、円や楕円などのドーナツ状の円形状を当てはめて前核外周部を検出することとしてもよい。以下、前核外周部の検出方法の2つの例を説明する。
Next, the
(第1の検出方法)
図5(A)は、第1の検出方法により前核外周部の機械学習に利用する学習データの例を示す。学習データは、学習用入力データと、ニューラルネットワークからの目標出力である教師データとを含む。図示のように、学習用入力データとしては、受精卵30の画像(以下、「受精卵画像」とも呼ぶ。)25を用いる。なお、受精卵画像25は、図4に示すウェル12全体を含む撮影画像20から、受精卵30の部分を切り出した画像である。
(First detection method)
FIG. 5A shows an example of learning data used for machine learning of the outer periphery of the pronucleus by the first detection method. The training data includes training input data and teacher data which is a target output from the neural network. As shown in the figure, as the input data for learning, an
図6は、第1の検出方法により前核外周部を検出する方法を模式的に示す。前核外周部の検出は、教師あり機械学習により学習したニューラルネットワーク71を利用する。まず、学習時には、図5(A)に示す学習データ、即ち、学習用入力データと教師データとをニューラルネットワーク71に与え、学習させる。この際、具体的には、図6に示すように、受精卵画像25から所定サイズの領域(例えば、30×30画素の領域。以下、「画像パッチ」と呼ぶ。)21を抽出し、画像パッチ21の単位で学習用入力データをニューラルネットワーク71に入力する。画像パッチ21は、受精卵画像25内で1画素ずつ位置をシフトしつつ切り出される。一方、教師データは、1つの画像パッチ21毎に、その中心の画素値(白/黒)として用意される。画像パッチ21毎の目標出力を示す画素値を受精卵画像25の分だけ統合したものが、図5(A)に示す教師データとなる。統合された教師データでは、検出対象物を含む領域として、検出対象物の外周輪郭形状を定める外周部を含む領域を含み、特に外周部を含む領域として、外周部の構造に起因する輝度分布を含む領域(例えば、外周部及び外周部周辺の外周部に起因する明暗が生じる領域、影部分を含む。)を識別できるようにすることが好ましい。このように、制御部65は、予め用意した学習用入力データと教師データを画像パッチ21の単位でニューラルネットワーク71に与えて学習を行う。
FIG. 6 schematically shows a method of detecting the outer peripheral portion of the pronucleus by the first detection method. The detection of the outer periphery of the pronucleus uses a
複数の学習データを用いてニューラルネットワーク71の学習が完了すると、次に、学習済のニューラルネットワーク71を利用して、実際の計算、即ち、受精卵画像25からの前核外周部の検出を行う。具体的には、制御部65は、実際の受精卵画像25を学習済のニューラルネットワーク71に入力し、実際の検出結果を出力する。これにより、図6に示すように、実際の受精卵画像25から、受精卵に含まれる前核外周部32aが検出される。
When the training of the
(第2の検出方法)
図5(B)は、第2の検出方法により前核外周部の機械学習に利用する学習データの例を示す。学習データは、学習用入力データと、ニューラルネットワークからの目標出力である教師データとを含む。ここで、学習用入力データとしては、第1の検出方法と同様に、受精卵画像25を用いる。一方、教師データとしては、図示のように、前核外周部を4分割した部分(「分割部分」と呼ぶ。)毎に教師データを用意する。具体的には、前核外周部を4分割した左上部分を目標出力とする教師データを「Aチャンネルの教師データ」とし、右上部分を目標出力とする教師データを「Bチャンネルの教師データ」とし、左下部分を目標出力とする教師データを「Cチャンネルの教師データ」とし、右下部分を目標出力とする教師データを「Dチャンネルの教師データ」とする。また、前核外周部以外の部分を目標出力とする教師データを「Eチャンネルの教師データ」とする。なお、Eチャンネルの教師データは必須ではないが、これを利用することにより学習効率を高められる効果がある。ここで、第1の検出方法と同様に、各チャンネルの教師データは、検出対象物を含む領域として、検出対象物の外周輪郭形状を定める外周部を含む領域を含み、特に外周部を含む領域として、外周部の構造に起因する輝度分布を含む領域(例えば、外周部及び外周部周辺の外周部に起因する明暗が生じる領域、影部分を含む。)を識別できるようにすることが好ましい。なお、影部分は、実際には光源51による照明光が検出対象物により強度変調されて生じる明暗として現れる。よって、検出対象物の影部分は、受精卵画像25における画素値、例えば輝度値の分布として示される。そして、1つの学習用入力データについて、A~Eチャンネルの5つの教師データを用いて、ニューラルネットワーク71の学習を行う。
(Second detection method)
FIG. 5B shows an example of learning data used for machine learning of the outer periphery of the pronucleus by the second detection method. The training data includes training input data and teacher data which is a target output from the neural network. Here, as the input data for learning, the fertilized
図7は、第2の検出方法により前核外周部を検出する方法を模式的に示す。前核外周部の検出は、学習済のニューラルネットワーク71を利用する。学習の段階では、図5(B)に示す学習データ、即ち、学習用入力データと教師データとをニューラルネットワーク71に与え、学習させる。この際、1つの入力データについて、A~Eチャンネルの5つの教師データを用いて、ニューラルネットワーク71の学習を行う。なお、第2の検出方法においても、図7に示すように、所定サイズの画像パッチ21の単位でニューラルネットワーク71に入力データを与えて学習を行う。
FIG. 7 schematically shows a method of detecting the outer peripheral portion of the pronucleus by the second detection method. The learned
複数の学習データを用いてニューラルネットワーク71の学習が完了すると、次に、学習済のニューラルネットワーク71を利用して、実際の受精卵画像25から前核外周部の検出を行う。具体的には、制御部65は、実際の解析の対象となる受精卵画像25を学習済のニューラルネットワーク71に入力し、実際の検出結果を出力する。これにより、図7に示すように、実際の受精卵画像25から、A~Eチャンネルの各々に対応する検出結果が得られる。
When the learning of the
第2の検出方法において、前核外周部を分割した分割部分毎に教師データを用意して機械学習を行う理由は以下の通りである。まず第1に、前核外周部を分割することにより、光源51による照明の影響を低減することができる。図8(A)は、光源51により前核32が照明される様子を模式的に示す。撮影装置50において、光源51は固定配置されるので、受精卵30が収容されるウェル12と光源51との位置関係によって、受精卵30内の前核32の周囲及び内部には明るい領域と暗い領域とができる。即ち、図8(A)に示すように、前核32の周囲及び内部のうち、光源51からの光が当たる側は明るい領域となり、それと反対側は暗い領域となる。また、明るい領域と暗い領域との間の領域は、明るさが中程度で変化する領域となる。このように、1つの前核32においても、光源51の位置との関係によって明るさが異なる領域ができるので、それらは機械学習において異なる性質の領域として別々に学習することが好ましい。そこで、第2の検出方法では、前核32の周囲及び内部を含む領域を4分割した分割部分毎に教師データを用意して機械学習を行う。これにより、光源51による照明状態の違いによる検出精度の低下を防止することができる。
In the second detection method, the reason why the teacher data is prepared for each divided portion of the anterior hypothalamic peripheral portion and machine learning is performed is as follows. First, by dividing the outer peripheral portion of the pronucleus, the influence of illumination by the
この場合、理論的には光源51の方向に基づいて前核外周部を分割することが好ましい。例えば、前核外周部を、光源51に近い部分と、その反対側の光源51から遠い部分と、それらの間の2つの中間部分とに分割する。別の方法としては、光源51からの照明光の位置を考慮することなく、前核外周部を均等に分割することにより、照明光の明るさの分布による影響を考慮した学習ができるようにしてもよい。この場合、分割数を増やすのが有効であり、特に4分割以上の分割数が望ましい。例えば、前核外周部を8分割し、分割部分毎の教師データを用いて機械学習を行う。この方法では、実際の光源51の方向を考慮しないが、分割数を増やすことにより、光源51からの照明光の影響を分散させ、各分割部分の検出における影響を低減することができる。
In this case, theoretically, it is preferable to divide the outer peripheral portion of the pronucleus based on the direction of the
前核外周部を分割して機械学習を行うもう一つの理由は、2つの前核外周部が重なって楕円に見えるような場合の検出精度を確保できるからである。受精卵30内に現れる2つの前核は隣接しているので、それらの一部が重なって、全体として1つの楕円に見えてしまうような場合がある。このような場合、前核に相当する円が2つあるのか、大きな楕円が1つあるのかを区別することは難しい。この点、前核外周部を分割し、分割部分毎に検出を行うことにより、一部が重なって楕円に見えるような2つの前核を正しく検出することが可能となる。
Another reason for performing machine learning by dividing the outer peripheral portion of the pronucleus is that it is possible to secure the detection accuracy when the two outer peripheral portions of the pronucleus overlap and look like an ellipse. Since the two pronuclei appearing in the fertilized
上記の例では、前核外周部を4分割又は8分割しているが、分割数はこれらには限られず、2分割、3分割、6分割など、他の分割数であっても構わない。但し、分割数が増加すると、機械学習や実際の前核外周部の検出における処理負荷が増大するので、処理負荷との関係で分割数を決めることが望ましい。また、上記の例では、前核外周部を均等に分割(例えば、4分割であれば、90度ずつの部分に分割)しているが、各分割部分の大きさが異なっていてもよい。例えば、図8(B)に示すように、照明光による明るさの分布を考慮して、明るい分割部分(Bチャンネル)と暗い分割部分(Cチャンネル)を大きくし、残りの2つの分割部分(AチャンネルとDチャンネル)をその分小さくしてもよい。 In the above example, the outer peripheral portion of the anterior hypothalium is divided into 4 or 8, but the number of divisions is not limited to these, and other divisions such as 2 divisions, 3 divisions, and 6 divisions may be used. However, as the number of divisions increases, the processing load in machine learning and actual detection of the outer periphery of the pronucleus increases, so it is desirable to determine the number of divisions in relation to the processing load. Further, in the above example, the outer peripheral portion of the anterior hypothalium is evenly divided (for example, in the case of four divisions, it is divided into 90 degree portions), but the size of each divided portion may be different. For example, as shown in FIG. 8B, in consideration of the distribution of brightness due to the illumination light, the bright divided portion (B channel) and the dark divided portion (C channel) are enlarged, and the remaining two divided portions (the remaining two divided portions (channel B) are enlarged. A channel and D channel) may be made smaller accordingly.
図3に戻り、前核外周部が検出されると、次に制御部65は前核数確率算出処理を行う(ステップS14)。前核数確率算出処理は、前核数の確率を算出する処理である。ここで、制御部65は、機械学習により前核数の確率を算出する。図9は、前核数の確率を算出する方法を模式的に示す。図10は、前核数確率検出処理における入出力データの例を示す。学習データは、学習用入力データとして、受精卵画像25と、A~Dチャンネルのいずれかの前核外周部の検出結果とを含む。なお、受精卵画像25は必須ではない。教師データは、前核数0個、1個、2個(それぞれ、「0PN」、「1PN」、「2PN」と記す。)の確率である。学習時には、上記の学習データを多数用いてニューラルネットワーク72を学習させる。
Returning to FIG. 3, when the outer peripheral portion of the pronucleus is detected, the
計算時には、入力データとして、実際の受精卵画像25と、それに対応するA~Dチャンネルのいずれかの実際の前核外周部の検出結果を学習済みのニューラルネットワーク72に入力する。なお、この場合も、受精卵画像25は必須ではない。ニューラルネットワーク72は、実際の受精卵画像25及び実際の前核外周部の検出結果に基づいて前核数の確率を計算し、出力する。こうして、1つの受精卵画像25について、その受精卵画像25に含まれる前核数が0個(0PN)である確率、1個(1PN)である確率、及び、2個(2PN)である確率がそれぞれ得られる。
At the time of calculation, the actual fertilized
このように、本実施形態では、前核数推定処理において、2つのニューラルネットワークの多段構成を用いている点に特徴を有する。即ち、図11に示すように、学習済みの第1のニューラルネットワーク71は、実際の受精卵画像から実際の前核外周部検出結果を生成し、学習済みの第2のニューラルネットワーク72へ出力する。そして、学習済みの第2のニューラルネットワーク72は、実際の前核外周部検出結果から実際の前核数確率を算出して出力する。
As described above, the present embodiment is characterized in that a multi-stage configuration of two neural networks is used in the pronuclear number estimation process. That is, as shown in FIG. 11, the trained first
次に、制御部65は、予め用意された全ての受精卵画像25について、ステップS12~S14の処理が完了したか否かを判定する(ステップS15)。全ての受精卵画像25について処理が完了していない場合(ステップS15:No)、処理はステップS12へ戻り、制御部65は、次の受精卵画像25についてステップS12~S14の処理を実行する。
Next, the
こうして、全ての受精卵画像25についてステップS12~S14の処理が完了すると(ステップS15:Yes)、制御部65は、各受精卵画像25について算出された前核数の確率を統合し、各時刻での前核数を判定する(ステップS16)。具体的には、まず制御部65は、図10に例示するように全時刻における各前核数(0PN、1PN、2PN)の確率をグラフ化する。次に、制御部65は、各前核数のグラフに基づいて、所定の事前知識(制約条件)の下で最大の確率を有する前核数を決定する。本実施形態では、隠れマルコフモデルにより、全時刻において算出された前核数の確率と、事前知識(制約条件)から、最も確率の高い前核数の推移を計算する。
In this way, when the processing of steps S12 to S14 is completed for all the fertilized egg images 25 (step S15: Yes), the
詳しくは、本実施形態では、受精卵における前核の性質に基づき、以下の少なくとも1つを事前知識(制約条件)として使用する。
(1)起こりうる前核数は0PN、1PN、2PNの3状態であり、観察開始時の前核数は0PNである。
(2)時間の経過によって前核数が増加することはあるが、減少することは無い。
(3)統計的に、前核が発生しやすい時刻、消失しやすい時刻がある。典型的には、前核は観察開始から5時間程度で発生し、20時間程度で消失する。
(4)統計的に、0PN、1PN、2PN、それぞれの発生頻度が既知である。典型的には、0PN、1PN、2PNの発生頻度は、それぞれ10%、10%、80%程度である。
Specifically, in this embodiment, at least one of the following is used as prior knowledge (constraint) based on the nature of the pronucleus in the fertilized egg.
(1) The number of pronuclei that can occur is 0PN, 1PN, and 2PN, and the number of pronuclei at the start of observation is 0PN.
(2) The number of pronuclei may increase with the passage of time, but it does not decrease.
(3) Statistically, there are times when pronuclei are likely to occur and times when pronuclei are likely to disappear. Typically, the pronucleus develops about 5 hours after the start of observation and disappears about 20 hours.
(4) Statistically, the frequency of occurrence of 0PN, 1PN, and 2PN is known. Typically, the frequency of occurrence of 0PN, 1PN, and 2PN is about 10%, 10%, and 80%, respectively.
図12(A)は、上記の事前知識(制約条件)を用いた前核数の判定例を示す。各前核数(0PN、1PN、2PN)の確率の推移が図12(A)の各グラフのように得られたものとする。この例では、観察開始から15~18時間の辺りで一時的に1PNの確率が高くなっているが、上記の事前知識(1)~(4)を考慮すると、判定結果は2PNとすることが妥当である。 FIG. 12A shows an example of determining the number of pronuclei using the above-mentioned prior knowledge (constraint condition). It is assumed that the transition of the probability of each pronucleus number (0PN, 1PN, 2PN) is obtained as shown in each graph of FIG. 12 (A). In this example, the probability of 1PN temporarily increases around 15 to 18 hours from the start of observation, but considering the above prior knowledge (1) to (4), the judgment result may be 2PN. It is reasonable.
図12(B)は、前核数の他の判定例を示す。各前核数(0PN、1PN、2PN)の確率の推移が図12(B)の各グラフのように得られたものとする。この場合、観察開始から12~22時間の期間では確率が1PNと2PNの間で頻繁に入れ替わっているが、上記の事前知識(1)~(4)を考慮すると、判定結果は2PNとすることが妥当である。 FIG. 12B shows another determination example of the number of pronuclei. It is assumed that the transition of the probability of each pronucleus number (0PN, 1PN, 2PN) is obtained as shown in each graph of FIG. 12B. In this case, the probabilities frequently switch between 1PN and 2PN in the period of 12 to 22 hours from the start of observation, but considering the above prior knowledge (1) to (4), the judgment result should be 2PN. Is appropriate.
こうして、制御部65は、隠れマルコフモデルにより、各時刻における前核数を判定する。そして、各時刻における前核数が得られると、次に制御部65は全時刻での最大前核数を出力する(ステップS17)。即ち、制御部65は、全時刻を通した最大前核数を、その受精卵の最終的な前核数として出力する。図13(A)は、ある受精卵について、各時刻における前核数の判定結果を示すグラフの一例である。図13(A)の例では、前時刻を通した最大前核数は2PNであるので、その受精卵の前核数の判定結果は2PNとなる。図13(B)は、他の受精卵について、各時刻における前核数の判定結果を示すグラフである。図13(B)の例では、全時刻を通した最大前核数は1PNであるので、その受精卵の前核数の判定結果は1PNとなる。こうして、1つの受精卵について前核数が推定され、前核数推定処理は終了する。
In this way, the
図14は、本実施形態による前核外周部検出処理の方法に応じた前核数の判定精度を示す表である。図14の表において、「元画像」とあるのは、機械学習による前核外周部の検出を行わず、受精卵画像25の画像解析により前核数を検出した結果である。この場合、各前核数の判定の正解率は40~60%程度、2PNの判定の正解率は52%にとどまっている。
FIG. 14 is a table showing the determination accuracy of the number of pronuclei according to the method of detecting the outer peripheral portion of the pronucleus according to the present embodiment. In the table of FIG. 14, the “original image” is the result of detecting the number of pronuclei by image analysis of the fertilized
次に、「元画像+前核外周部」とあるのは、前核外周部検出処理において前述の第1の検出方法(図6参照)を実行した場合、即ち、前核外周部を分割せずに前核外周部全体として機械学習により前核外周部を検出した場合の結果である。この場合、各前核数の判定の正解率は60%以上、2PNの判定の正解率は74%となっている。よって、前核外周部の検出を行わない場合より判定精度は高くなる。 Next, "original image + pronucleus outer peripheral portion" means that the above-mentioned first detection method (see FIG. 6) is executed in the pronucleus outer peripheral portion detection process, that is, the pronucleus outer peripheral portion is divided. This is the result when the outer peripheral part of the anterior nucleus is detected by machine learning as the entire outer peripheral part of the anterior nucleus. In this case, the correct answer rate for determining the number of pronuclei is 60% or more, and the correct answer rate for determining 2PN is 74%. Therefore, the determination accuracy is higher than that in the case where the outer peripheral portion of the pronucleus is not detected.
次に、「元画像+前核外周部(4分割)」とあるのは、前核外周部検出処理において前述の第2の検出方法(図7参照)を実行した場合、即ち、前核外周部を4分割して機械学習による前核外周部を検出した場合の結果である。この場合、各前核数の判定の正解率は80%以上、2PNの判定の正解率は92%となっている。よって、前核外周部を分割して前核外周部の検出を行えば、判定精度をより高めることができることがわかる。 Next, "original image + pronucleus outer periphery (4 divisions)" means that the above-mentioned second detection method (see FIG. 7) is executed in the pronucleus outer periphery detection process, that is, the forearm outer periphery. This is the result when the part is divided into four parts and the outer peripheral part of the anterior hypothalium is detected by machine learning. In this case, the correct answer rate for determining the number of pronuclei is 80% or more, and the correct answer rate for determining 2PN is 92%. Therefore, it can be seen that the determination accuracy can be further improved by dividing the outer peripheral portion of the anterior nucleus and detecting the outer peripheral portion of the anterior nucleus.
[前核数の表示]
次に、前核数推定処理により得られた前核数の表示例を説明する。制御部65は、前核数推定処理により得られた前核数を画像解析装置60の表示部64に表示する。図15は、前核数を離散値として表示する場合の表示例を示す。図15(A)は、前核数の経時的な推移を折れ線グラフにより示す例である。図15(B)は、前核数の経時的な推移を色分けにより示す例である。図15(C)は、前核数の経時的な推移をグラデーションを伴う色づけにより示す例である。この例では、前核数が変化する期間がグラデーションにより表現されている。図15(D)は、前核数の経時的な推移を色の面積により示す例である。この例では、前核数が変化する期間が面積の変化により表現されている。
[Display of the number of pronuclei]
Next, a display example of the number of pronuclei obtained by the pronuclear number estimation process will be described. The
図16は、前核数を連続値により表示した例である。横軸は観察開始からの経過時間を示し、縦軸は前核数を示す。この例では、前核数が確定しにくい時間帯の情報を連続値で示すことにより、胚培養士などの観察者の目視判断に利用可能な情報をより細かく提供することができる。 FIG. 16 is an example in which the number of pronuclei is displayed by continuous values. The horizontal axis shows the elapsed time from the start of observation, and the vertical axis shows the number of pronuclei. In this example, by presenting information on a time zone in which the number of pronuclei is difficult to be determined as a continuous value, it is possible to provide more detailed information that can be used for visual judgment by an observer such as an embryo culture technician.
図17は、前述の第2の検出方法による前核外周部の検出結果を示す画像の例である。具体的には、図7に示す学習済のニューラルネットワーク71を利用して得たA~Dチャンネルの実際の検出結果を1つの画像にして表示したものである。ここでは、各チャンネルの検出結果を観察者が区別できるように異なる表示態様で表示する。図17(A)では、前核外周部を4分割した各分割部分を異なるハッチングで示している。図17(B)は、図17(A)における1つの前核の部分を拡大し、円形により模式的に示したものである。図17(B)に示すように、A~Dチャンネルの実際の検出結果を異なるハッチングで表示している。なお、ここでは図示の便宜上、各分割部分をハッチングにより区別しているが、実際には各分割部分を異なる色などで区別して表示すればよい。このように各分割部分を色分けなどにより区別して表示することにより、2つの前核が重なっているときに前核を見分けやすくなる。また、1つの前核が4色のパターンで表示されるので、そのパターンの数により前核数を容易に検出することができる。また、各前核が同じ4色のパターンで表示されていれば、前核外周部の検出処理が正しく行われていると考えることができるので、この画像を見ることにより、前核数推定処理の信頼性を間接的に確認できるという利点もある。
FIG. 17 is an example of an image showing the detection result of the outer peripheral portion of the pronucleus by the above-mentioned second detection method. Specifically, the actual detection results of the A to D channels obtained by using the trained
[変形例]
上記の前核数推定処理では、ステップS14において前核数確率算出処理により前核数の確率を算出し、ステップS16において前核数の確率に基づいて各時刻での前核数を判定しているが、その代わりに確率を用いない手法により前核数を判定し、その結果を出力することとしてもよい。
[Modification example]
In the above pronucleus number estimation process, the pronucleus number probability is calculated by the pronucleus number probability calculation process in step S14, and the pronucleus number at each time is determined based on the pronuclear number probability in step S16. However, instead, the number of pronuclei may be determined by a method that does not use probability, and the result may be output.
10 培養容器
12 ウェル
20 撮影画像
25 受精卵画像
30 受精卵
50 撮影装置
51 光源
52 カメラ
55 記憶装置
60 画像解析装置
64 表示部
65 制御部
10
Claims (20)
学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行い、
検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する対象物検出器。 An object detector that detects an object to be detected contained in the sample from a photographed image of the sample.
At the time of learning, a teacher prepared for each divided portion in which the input data which is the captured image of the sample and the region including the detection target included in the captured image are divided into a plurality of portions so as to include the detection target. Learning with data,
An object detector that receives a captured image of an actual sample as input data at the time of detection and outputs the detection result of the detected object contained in the captured image.
前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器を備え、
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みである画像解析装置。 An image analysis device that detects an object to be detected contained in the sample from the captured image of the sample.
A target detector for detecting a detection target contained in the sample from the photographed image of the sample is provided.
The object detector divides the input data, which is a photographed image of the sample, and the region including the detection object contained in the photographed image into a plurality of portions so as to include the detection object, for each divided portion. An image analysis device that has been trained by a plurality of training data including the prepared teacher data.
前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器を備え、
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、
前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含む画像解析装置。 An image analysis device that detects an object to be detected contained in the sample from the captured image of the sample.
A target detector for detecting a detection target contained in the sample from the photographed image of the sample is provided.
The object detector includes input data which is a photographed image of the sample and teacher data prepared for each divided portion in which a region including the detection object included in the captured image is divided into a plurality of portions. It has been trained by multiple training data and has been trained.
The divided portion is an image analysis device including a distribution of pixel values due to the structure of the detection object.
前記結果出力部は、前記個数検出器が検出した個数毎の確率に基づいて前記個数情報を出力し、
前記個数検出器は、前記対象物検出器により検出対象物が検出された検出情報を含む入力データと、当該検出情報に含まれる前記検出対象物の個数毎の確率を示す教師データとを含む学習データにより学習済みである請求項7に記載の画像解析装置。 A number detector for calculating the probability for each number of the detection objects from the detection information in which the detection target is detected by the object detector is provided.
The result output unit outputs the number information based on the probability of each number detected by the number detector.
The number detector is a learning including input data including detection information in which a detection target is detected by the object detector, and teacher data indicating a probability for each number of the detection objects included in the detection information. The image analysis apparatus according to claim 7, which has been learned from the data.
前記結果出力部は、前記個数検出器が検出した個数毎の確率に基づいて前記個数情報を出力し、
前記個数検出器は、
学習時に、前記対象物検出器により検出対象物が検出された検出情報を含む入力データと、当該検出情報に含まれる前記検出対象物の個数毎の確率を示す教師データとにより学習を行い、
検出時に、前記対象物検出器により検出対象物が検出された検出情報を入力データとして受け取り、当該検出情報に含まれる前記検出対象物の個数毎の確率を出力する請求項7に記載の画像解析装置。 A number detector for calculating the probability for each number of the detection objects from the detection information in which the detection target is detected by the object detector is provided.
The result output unit outputs the number information based on the probability of each number detected by the number detector.
The number detector is
At the time of learning, learning is performed by input data including detection information in which the detection object is detected by the object detector and teacher data indicating the probability of each number of the detection objects included in the detection information.
The image analysis according to claim 7, wherein at the time of detection, the detection information in which the detection target is detected by the object detector is received as input data, and the probability for each number of the detection targets included in the detection information is output. Device.
学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行う手段、
検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する手段、
として前記コンピュータを機能させるプログラム。 A program equipped with a computer and executed by an object detector that detects an object to be detected contained in the sample from a photographed image of the sample.
At the time of learning, a teacher prepared for each divided portion in which the input data which is the captured image of the sample and the region including the detection target included in the captured image are divided into a plurality of portions so as to include the detection target. A means of learning with data,
A means of receiving a captured image of an actual sample as input data at the time of detection and outputting the detection result of the detection target contained in the captured image.
A program that makes the computer function as.
前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器として前記コンピュータを機能させ、
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであるプログラム。 A program equipped with a computer and executed by an image analysis device that detects an object to be detected contained in the sample from the captured image of the sample.
The computer is made to function as an object detector for detecting an object to be detected contained in the sample from a photographed image of the sample.
The object detector divides the input data, which is a photographed image of the sample, and the region including the detection object contained in the photographed image into a plurality of portions so as to include the detection object, for each divided portion. A program that has been trained by multiple training data including the prepared teacher data.
前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出器として前記コンピュータを機能させ、The computer is made to function as an object detector for detecting an object to be detected contained in the sample from a photographed image of the sample.
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、The object detector includes input data which is a photographed image of the sample and teacher data prepared for each divided portion in which a region including the detection object included in the captured image is divided into a plurality of portions. It has been trained by multiple training data and has been trained.
前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含むプログラム。The divided portion is a program including a distribution of pixel values due to the structure of the detected object.
前記第1のニューラルネットワークが、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、前記検体の撮影画像を基に当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割画像を出力するように構成されており、
前記第2のニューラルネットワークが、前記対象物検出器により検出対象物が検出された検出情報を含む入力データと、当該検出情報に含まれる前記検出対象物の個数毎の確率を示す教師データとにより学習済みであり、前記対象物検出器により検出対象物が検出された検出情報を基に当該検出情報に含まれる前記検出対象物の個数毎の確率を出力するように構成されていることからなる学習済みモデル。 A trained model for operating the computer so as to have a computer and calculate the probability for each number of detection objects contained in the sample from the captured image of the sample, the first neural network and the above. It consists of a second neural network combined so that the output from the first neural network is input.
The first neural network obtains input data which is a photographed image of the sample and teacher data prepared for each divided portion in which a region including the detection object included in the captured image is divided into a plurality of portions. It has been trained by a plurality of training data including the sample, and is configured to output a divided image obtained by dividing a region including the detection object included in the captured image into a plurality of portions based on the captured image of the sample. ,
The second neural network is based on input data including detection information in which the detection target is detected by the object detector and teacher data indicating the probability of each number of the detection targets included in the detection information. It is configured to output the probability for each number of the detection objects included in the detection information based on the detection information that has been learned and the detection object is detected by the object detector. Trained model.
学習時に、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとにより学習を行う工程と、
検出時に、実際の検体の撮影画像を入力データとして受け取り、当該撮影画像に含まれる検出対象物の検出結果を出力する工程と、
を備える対象物検出方法。 It is an object detection method executed by an object detector that detects an object to be detected contained in the sample from a photographed image of the sample.
At the time of learning, a teacher prepared for each divided portion in which the input data which is the captured image of the sample and the region including the detection target included in the captured image are divided into a plurality of portions so as to include the detection target. The process of learning with data and
At the time of detection, the process of receiving the captured image of the actual sample as input data and outputting the detection result of the detection target contained in the captured image, and
An object detection method comprising.
対象物検出器により、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出工程を備え、
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を前記検出対象物を含むように複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みである画像解析方法。 It is an image analysis method executed by an image analysis device that detects an object to be detected contained in the sample from a photographed image of the sample.
The object detector comprises an object detection step of detecting an object to be detected contained in the sample from a photographed image of the sample.
The object detector divides the input data, which is a photographed image of the sample, and the region including the detection object contained in the photographed image into a plurality of portions so as to include the detection object, for each divided portion. An image analysis method that has been trained by a plurality of training data including the prepared teacher data.
対象物検出器により、前記検体の撮影画像から、当該検体に含まれる検出対象物を検出する対象物検出工程を備え、The object detector comprises an object detection step of detecting an object to be detected contained in the sample from a photographed image of the sample.
前記対象物検出器は、前記検体の撮影画像である入力データと、当該撮影画像に含まれる前記検出対象物を含む領域を複数の部分に分割した分割部分毎に用意された教師データとを含む複数の学習データにより学習済みであり、The object detector includes input data which is a photographed image of the sample and teacher data prepared for each divided portion in which a region including the detection object included in the captured image is divided into a plurality of portions. It has been trained by multiple training data and has been trained.
前記分割部分は、前記検出対象物の構造に起因する画素値の分布を含む画像解析方法。The divided portion is an image analysis method including a distribution of pixel values due to the structure of the detection object.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220345A JP7091635B2 (en) | 2017-11-15 | 2017-11-15 | Object detector, image analysis device, object detection method, image analysis method, program, and training data |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017220345A JP7091635B2 (en) | 2017-11-15 | 2017-11-15 | Object detector, image analysis device, object detection method, image analysis method, program, and training data |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2019091308A JP2019091308A (en) | 2019-06-13 |
JP7091635B2 true JP7091635B2 (en) | 2022-06-28 |
Family
ID=66836395
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017220345A Active JP7091635B2 (en) | 2017-11-15 | 2017-11-15 | Object detector, image analysis device, object detection method, image analysis method, program, and training data |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP7091635B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6635221B1 (en) * | 2018-08-31 | 2020-01-22 | ソニー株式会社 | Imaging device, imaging system, imaging method, and imaging program |
WO2020262571A1 (en) * | 2019-06-28 | 2020-12-30 | 富士フイルム株式会社 | Learning image generation device, method and program , and learning method, device and program |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015177268A1 (en) | 2014-05-23 | 2015-11-26 | Ventana Medical Systems, Inc. | Systems and methods for detection of biological structures and/or patterns in images |
JP2016067322A (en) | 2014-09-30 | 2016-05-09 | 富士フイルム株式会社 | Plastic container |
WO2016107896A1 (en) | 2014-12-30 | 2016-07-07 | Ventana Medical Systems, Inc. | Systems and methods for co-expression analysis in immunoscore computation |
-
2017
- 2017-11-15 JP JP2017220345A patent/JP7091635B2/en active Active
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2015177268A1 (en) | 2014-05-23 | 2015-11-26 | Ventana Medical Systems, Inc. | Systems and methods for detection of biological structures and/or patterns in images |
JP2016067322A (en) | 2014-09-30 | 2016-05-09 | 富士フイルム株式会社 | Plastic container |
WO2016107896A1 (en) | 2014-12-30 | 2016-07-07 | Ventana Medical Systems, Inc. | Systems and methods for co-expression analysis in immunoscore computation |
Non-Patent Citations (4)
Title |
---|
Aisha Khan et al,Segmentation of developing human embryo in time-lapse microscopy,2016 IEEE 13th International Symposium on Biomedical Imaging (ISBI),米国,IEEE,2016年04月16日,930-934,https://ieeexplore.ieee.org/document/7493417 |
Olaf Ronneberger et al,U-Net: Convolutional Networks for Biomedical Image Segmentation,arXiv,2015年05月18日,https://arxiv.org/pdf/1505.04597.pdf |
S. Kheradmand et al,Inner cell mass segmentation in human HMC embryo images using fully convolutional network,2017 IEEE International Conference on Image Processing (ICIP),米国,IEEE,2017年09月20日,1752-1756,https://ieeexplore.ieee.org/document/8296582 |
水野 雄太 他,Deep learningを用いた脂肪組織画像における細胞の認識,情報処理学会 研究報告 数理モデル化と問題解決(MPS),日本,情報処理学会,2016年03月01日,1~6 |
Also Published As
Publication number | Publication date |
---|---|
JP2019091308A (en) | 2019-06-13 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US20200283719A1 (en) | Method and system for automated microbial colony counting from streaked sample on plated media | |
US7995058B2 (en) | Method and system for identifying illumination fields in an image | |
JP7097686B2 (en) | Image analyzer | |
US10968473B2 (en) | Method, system and computer program product for determining the presence of microorganisms and identifying said microorganisms | |
US20200096454A1 (en) | Defect detection system for aircraft component and defect detection method for aircraft component | |
US10007835B2 (en) | Cell region display control device, method, and program | |
US11884959B2 (en) | Methods and systems for automated assessment of antibiotic sensitivity | |
US10192306B2 (en) | Cell recognition device, method, and program | |
US10620417B2 (en) | Method for generating a reflection-reduced contrast image and corresponding device | |
JP7091635B2 (en) | Object detector, image analysis device, object detection method, image analysis method, program, and training data | |
CN111656393A (en) | Histological image analysis | |
US20200126224A1 (en) | Image processing device, recording medium, and image processing method | |
US20230080978A1 (en) | Machine learning method and information processing apparatus for machine learning | |
EP3290524A1 (en) | Method, system and computer program product for determining the presence of microorganisms and identifying said microorganisms | |
EP4187217A1 (en) | Mobile computing device for performing color fastness measurements | |
US20230137862A1 (en) | System, Method, and Computer Program for a Microscope of a Surgical Microscope System | |
CN110428531A (en) | Access control method, terminal and computer storage medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200925 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20210921 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20211012 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220517 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220530 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7091635 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |